Войти
Логопедический портал
  • Княжение ярослава мудрого Значение «Русской Правды»
  • Иван Сусанин: интересные факты Интересные события из жизни ивана сусанина
  • Способы быстрого устного умножения чисел
  • Саги викингов читать. Викинги – люди саги. Жизнь и нравы. Проклятое кольцо Андваринаут
  • “Мне голос был. Он звал утешно…”. Анна Ахматова ~ Мне голос был. Он звал утешно… Цветаева мне голос был он звал утешно
  • Любить свою Родину - значит знать её!
  • Функциональная связь и стохастическая зависимость. Задача математического моделирования (аппроксимации). "зависимость, стохастическая" в книгах

    Функциональная связь и стохастическая зависимость. Задача математического моделирования (аппроксимации).

    Между различными явлениями и их признаками необходимо прежде всего выделить 2типа связей: функциональную (жестко детерминированную) и статистическую (стохастически детерминированную).

    В соответствии с жестко детерминистическим представлением о функционировании экономических систем необходимость и закономерность однозначно проявляются в каждом отдельном явлении, то есть любое действие вызывает строго определенный результат; случайными (непредвиденными заранее) воздействиями при этом пренебрегают. Поэтому при заданных начальных условиях состояние такой системы может быть определено с вероятностью, равной 1. Разновидностью такой закономерности является функциональная связь.

    Связь признака у с признакомх называется функциональной, если каждому возможному значению независимого признаках соответствует 1 или несколько строго определенных значений зависимого признакау . Определение функциональной связи может быть легко обобщено для случая многих признаковх 1 2 …х n .

    Характерной особенностью функциональных связей является то, что в каждом отдельном случае известен полный перечень факторов, определяющих значение зависимого (результативного) признака, а также точный механизм их влияния, выраженный определенным уравнением.

    Функциональную связь можно представить уравнением:

    y i = (x i ) ,

    где y i - результативный признак (i = 1, … , n );

    f(x i ) - известная функция связи результативного и факторного признаков;

    x i - факторный признак.

    В реальной общественной жизни ввиду неполноты информации жестко детерминированной системы, может возникнуть неопределенность, из-за которой эта система по своей природе должна рассматриваться как вероятностная, при этом связь между признаками становится стахостической.

    Стахостическая связь – это связь между величинами, при которой одна из них, случайная величинау , реагирует на изменение другой величиных или других величинх 1 2 …х n (случайных или неслучайных) изменением закона распределения. Это обуславливается тем, что зависимая переменная (результативный признак), кроме рассматриваемых независимых, подвержена влиянию ряда неучтенных или неконтролируемых (случайных) факторов, а также некоторых неизбежных ошибок измерения переменных. Поскольку значения зависимой переменной подвержены случайному разбросу, они не могут быть предсказаны с достаточной точностью, а только указаны с определенной вероятностью.

    Характерной особенностью стахостических связей является то, что они проявляются во всей совокупности, а не в каждой ее единице. Причём неизвестен ни полный перечень факторов, определяющих значение результативного признака, ни точный механизм их функционирования и взаимодействия с результативным признаком. Всегда имеет место влияние случайного. Появляющиеся различные значения зависимой переменной – реализация случайной величины.

    Модель стохастической связи может быть представлена в общем виде уравнением:

    ŷ i = (x i ) + i ,

    где ŷ i - расчётное значение результативного признака;

    f(x i ) - часть результативного признака, сформировавшаяся под воздействием учтенных известных факторных признаков(одного или множества), находящихся в стахостической связи с признаком;

    i - часть результативного признака, возникшая в следствие действия неконтролируемых или неучтенных факторов, а также измерения признаков, неизбежно сопровождающегося некоторыми случайными ошибками.

    Проявление стохастических связей подвержено действию закона больших чисел : лишь в достаточно большом числе единиц индивидуальные особенности сгладятся, случайности взаимопогасятся, и зависимость, если она имеет существенную силу, проявится достаточно отчётливо.

    Корреляционная связь существует там, где взаимосвязанные явления характеризуются только случайными величинами. При такой связи среднее значение (математическое ожидание) случайной величины результативного признакау закономерно изменяется в зависимости от изменения другой величиных или других случайных величинх 1 2 …х n . Корреляционная связь проявляется не в каждом отдельном случае, а во всей совокупности в целом. Только при достаточно большом количестве случаев каждому значению случайного признаках будет соответствовать распределение средних значений случайного признакау . Наличие корреляционных связей присуще многим общественным явлениям.

    Корреляционная связь – понятие более узкое, чем стохастическая связь. Последняя может отражаться не только в изменении средней величины, но и в вариации одного признака в зависимости от другого, то есть любой другой характеристики вариации. Таким образом, корреляционная связь является частным случаем стохастической связи.

    Прямые и обратные связи. В зависимости от направления действия, функциональные и стахостические связи могут быть прямые и обратные. При прямой связи направление изменения результативного признака совпадает с направлением изменения признака-фактора, то есть с увеличением факторного признака увеличивается и результативный, и, наоборот, с уменьшением факторного признака уменьшается и результативный признак. В противном случае между рассматриваемыми величинами существуют обратные связи. Например, чем выше квалификация рабочего (разряд), тем выше уровень производительности труда – прямая связь. А чем выше производительность труда, тем ниже себестоимость единицы продукции – обратная связь.

    Прямолинейные и криволинейные связи. По аналитическому выражению (форме) связи могут быть прямолинейными и криволинейными. При прямолинейной связи с возрастанием значения факторного признака происходит непрерывное возрастание (или убывание) значений результативного признака. Математически такая связь представляется уравнением прямой, а графически – прямой линией. Отсюда ее более короткое название – линейная связь. При криволинейных связях с возрастанием значения факторного признака возрастание (или убывание) результативного признака происходит неравномерно, или же направление его изменения меняется на обратное. Геометрически такие связи представляются кривыми линиями (гиперболой, параболой и т.д.).

    Однофакторные и многофакторные связи. По количеству факторов, действующих на результативный признак, связи различаются: однофакторные (один фактор) и многофакторные (два и более факторов). Однофакторные (простые) связи обычно называются парными (т.к. рассматривается пара признаков). Например, корреляционная связь между прибылью и производительностью труда. В случае многофакторной (множественной) связи имеют в виду, что все факторы действуют комплексно, то есть одновременно и во взаимосвязи. Например, корреляционная связь между производительностью труда и уровнем организации труда, автоматизации производства, квалификации рабочих, производственным стажем, простоями и другими факторными признаками. С помощью множественной корреляции можно охватить весь комплекс факторных признаков и объективно отразить существующие множественные связи.

    Между различными явлениями и их признаками необходимо прежде всего выделить два типа связей: функциональную (жестко детерминированную) и статистическую (стохастическую детерминированную).

    Связь признака y с признаком x называется функциональной, если каждому возможному значению независимого признака x соответствует одно или несколько строго определенных значений зависимого признака y. Определение функциональной связи может быть легко обобщено для случая многих признаков x1,x2,…,x n .

    Характерной особенностью функциональных связей является то, что в каждом отдельном случае известен полный перечень факторов, определляющих значение зависимого (результтативного) признака, а также точный механизм их влияния, выраженного определенным уравнением.

    Функциональную связь можно представить уравнением:

    Где y i - результативный признак (i=1,…, n)

    f(x i) – известная функция связи результативного и факторного признака

    x i – факторный признак.

    Стохастическая связь- это связь между величинами, при которых одна из них, случайная величина y, реагирует на изменение другой величины x или других величин x1, x2,…, x n , (случайных или неслучайных) изменением закона распределения. Это обуславливается тем, что зависимая переменная (результативный признак), кроме рассматриваемых независимых, подвержена влиянию ряда неучтенных или неконтролируемых (случайных) факторов, а также некоторых неизбежных ошибок измерения переменных. Поскольку значения зависимой переменной подвержены случайному разбросу, они не могут быть предсказаны с достаточной точностью, а только указаны с определенной вероятностью.

    Характерной особенностью стохастических связей является то, что они проявляются во всей совокупности, а не в каждой ее единице (причем не известен ни полный перечень факторов, определяющих значение результативного признака, ни точный механизм их функционирования и взаимодействия с результативным признаком). Всегда имеет место влияние случайного. Появляющиеся различные значения зависимой переменной- реализации случайной величины.

    Модель стохастической связи может быть представлена в общем виде уравнением:

    Где y i – расчетное значение результативного признака

    f(x i) – часть результативного признака, сформировавшаяся под воздействием учтенных известных факторных признаков (одного или множества), находящихся в стохастической связи с признаком

    ε i – часть результативного признака, возникшая вследствие действия неконтролируемых или неучтенных факторов, а также измерения признаков неизбежно сопровождающегося некоторыми случайными ошибками.

    Федеральное государственное образовательное учреждение

    высшего профессионального образования

    Академия Бюджета и Казначейства

    Министерства финансов Российской Федерации

    Калужский филиал

    РЕФЕРАТ

    по дисциплине:

    Эконометрика

    Тема: Эконометрический метод и использование стохастических зависимостей в эконометрике

    Факультет учетный

    Специальность

    бухучет, анализ и аудит

    Отделение очно-заочное

    Научный руководитель

    Швецова С.Т.

    Калуга 2007

    Введение

    1. Анализ различных подходов к определению вероятности: априорный подход, апостериорно-частотный подход, апостериорно-модельный подход

    2. Примеры стохастических зависимостей в экономике, их особенности и теоретико-вероятностные способы их изучения

    3. Проверка ряда гипотез о свойствах распределения вероятностей для случайной компоненты как один из этапов эконометрического исследования

    Заключение

    Список литературы

    Введение

    Становление и развитие эконометрического метода происходили на основе так называемой высшей статистики – на методах парной и множественной регрессии, парной, частной и множественной корреляции, выделения тренда и других компонент временного ряда, на статистическом оценивании. Р. Фишер писал: «Статистические методы являются существенным элементом в социальных науках, и в основном именно с помощью этих методов социальные учения могут подняться до уровня наук» .

    Целью данного реферата послужило изучение эконометрического метода и использования стохастических зависимостей в эконометрике.

    Задачами данного реферата является проанализировать различные подходы к определению вероятности, привести примеры стохастических зависимостей в экономике, выявить их особенности и привести теоретико-вероятностные способы их изучения, проанализировать этапы эконометрического исследования.

    1. Анализ различных подходов к определению вероятности: априорный подход, апостериорно-частотный подход, апостериорно-модельный подход

    Для полного описания механизма исследуемого случайного эксперимента недостаточно задать лишь пространство элементарных событий. Очевидно, наряду с перечислением всех возможных исходов исследуемого случайного эксперимента мы должны также знать, как часто в длинной серии таких экспериментов могут происходить те или другие элементарные события.

    Для построения (в дискретном случае) полной и законченной математической теории случайного эксперимента – теории вероятностей – помимо исходных понятий случайного эксперимента, элементарного исхода и случайного события необходимо запастись еще одним исходным допущением (аксиомой), постулирующим существование вероятностей элементарных событий (удовлетворяющих определенной нормировке), и определением вероятности любого случайного события.

    Аксиома. Каждому элементу w i пространства элементарных событий Ω соответствует некоторая неотрицательная числовая характеристика p i шансов его появления, называемая вероятностью события w i , причем

    p 1 + p 2 + . . . + p n + . . . = ∑ p i = 1 (1.1)

    (отсюда, в частности, следует, что 0 ≤ р i ≤ 1 для всех i ).

    Определение вероятности события. Вероятность любого события А определяется как сумма вероятностей всех элементарных событий, составляющих событие А, т.е. если использовать символику Р{А} для обозначения «вероятности события А », то

    Р{А} = ∑ Р{ w i } = ∑ p i (1.2)

    Отсюда и из (1.1) непосредственно следует, что всегда 0 ≤ Р{A } ≤ 1, причем вероятность достоверного события равна единице, а вероятность невозможного события равна нулю. Все остальные понятия и правила действий с вероятностями и событиями будут уже производными от введенных выше четырех исходных определений (случайного эксперимента, элементарного исхода, случайного события и его вероятности) и одной аксиомы.

    Таким образом, для исчерпывающего описания механизма исследуемого случайного эксперимента (в дискретном случае) необходимо задать конечное или счетное множество всех возможных элементарных исходов Ω и каждому элементарному исходу w i поставить в соответствие некоторую неотрицательную (не превосходящую единицы) числовую характеристику p i , интерпретируемую как вероятность появления исхода w i (будем обозначать эту вероятность символами Р{w i }), причем установленное соответствие типа w i ↔ p i должно удовлетворять требованию нормировки (1.1).

    Вероятностное пространство как раз и является понятием, формализующим такое описание механизма случайного эксперимента. Задать вероятностное пространство – это значит задать пространство элементарных событий Ω и определить в нем вышеуказанное соответствие типа

    w i p i = Р { w i }. (1.3)

    Для определения из конкретных условий решаемой задачи вероятности P { w i } отдельных элементарных событий используется один из следующих трех подходов.

    Априорный подход к вычислению вероятностей P { w i } заключается в теоретическом, умозрительном анализе специфических условий данного конкретного случайного эксперимента (до проведения самого эксперимента). В ряде ситуаций этот предопытный анализ позволяет теоретически обосновать способ определения искомых вероятностей. Например, возможен случай, когда пространство всех возможных элементарных исходов состоит из конечного числа N элементов, причем условия производства исследуемого случайного эксперимента таковы, что вероятности осуществления каждого из этих N элементарных исходов нам представляются равными (именно в такой ситуации мы находимся при подбрасывании симметричной монеты, бросании правильной игральной кости, случайном извлечении игральной карты из хорошо перемешанной колоды и т. п.). В силу аксиомы (1.1) вероятность каждого элементарного события равна в этом случае 1/ N . Это позволяет получить простой рецепт и для подсчета вероятности любого события: если событие А содержит N A элементарных событий, то в соответствии с определением (1.2)

    Р {А} = N A / N . (1.2")

    Смысл формулы (1.2’) состоит в том, что вероятность события в данном классе ситуаций может быть определена как отношение числа благоприятных исходов (т. е. элементарных исходов, входящих в это событие) к числу всех возможных исходов (так называемое классическое определение вероятности). В современной трактовке формула (1.2’) не является определением вероятности: она применима лишь в том частном случае, когда все элементарные исходы равновероятны.

    Апостериорно-частотный подход к вычислению вероятностей Р { w i } отталкивается, по существу, от определения вероятности, принятого так называемой частотной концепцией вероятности. В соответствии с этой концепцией вероятность P { w i } определяется как предел относительной частоты появления исхода w i в процессе неограниченного увеличения общего числа случайных экспериментов n , т.е.

    p i = P { w i } = lim m n (w i ) / n (1.4)

    где m n (w i ) – число случайных экспериментов (из общего числа n произведенных случайных экспериментов), в которых зарегистрировано появление элементарного события w i . Соответственно для практического (приближенного) определения вероятностей p i предлагается брать относительные частоты появления события w i в достаточно длинном ряду случайных экспериментов.

    Разными в этих двух концепциях оказываются определения вероятностей: в соответствии с частотной концепцией вероятность не является объективным, существующим до опыта, свойством изучаемого явления, а появляется только в связи с проведением опыта или наблюдения; это приводит к смешению теоретических (истинных, обусловленных реальным комплексом условий «существования» исследуемого явления) вероятностных характеристик и их эмпирических (выборочных) аналогов.

    Апостериорно-моделъный подход к заданию вероятностей P { w i } , отвечающему конкретно исследуемому реальному комплексу условий, является в настоящее время, пожалуй, наиболее распространенным и наиболее практически удобным. Логика этого подхода следующая. С одной стороны, в рамках априорного подхода, т. е. в рамках теоретического, умозрительного анализа возможных вариантов специфики гипотетичных реальных комплексов условий разработан и исследован набор модельных вероятностных пространств (биномиальное, пуассоновское, нормальное, показательное и т. п.). С другой стороны, исследователь располагает результатами ограниченного ряда случайных экспериментов. Далее, с помощью специальных математико-статистических приемов исследователь как бы прилаживает гипотетичные модели вероятностных пространств к имеющимся у него результатам наблюдения и оставляет для дальнейшего использования лишь ту модель или те модели, которые не противоречат этим результатам и в некотором смысле наилучшим образом им соответствуют.

    Рассматривая зависимость между признаками, выделим прежде всего зависимость между изменением факторного и результативного признаков, когда вполне определенному значению факторного признака соответствует множество возможных значений результативного признака. Иначе говоря, каждому значению одной переменной соответствует определенное (условное) распределение другой переменной. Такая зависимость называется стохастической. Возникновение понятия стохастической зависимости обусловливается тем, что зависимая переменная подвержена влиянию ряда неконтролируемых или неучтенных факторов, а также тем, что изменение значений переменных неизбежно сопровождается некоторыми случайными ошибками. Примером стохастической связи является зависимость урожайности сельскохозяйственных культур Y от массы внесенных удобрений X. Точно предсказать урожайность мы не можем, так как на нее влияет множество факторов (осадки, состав почвы и т.д.). Однако очевидно, что с изменением массы удобрений будет меняться и урожайность.

    В статистике изучаются наблюдаемые значения признаков, поэтому стохастическую зависимость называют обычно статистической зависимостью.

    В силу неоднозначности статистической зависимости между значениями результативного признака У и значениями факторного признака X представляет интерес усредненная по X схема зависимости, т.е. закономерность, выражаемая условным математическим ожиданием M(Y/X = х) (вычисленного при фиксированном значении факторного признака X = х ). Зависимости такого рода называются регрессионными , а функция ср(х) = M(Y/X = х) - функцией регрессии Y на X или прогнозом Y по X (обозначение у х = ф(л)). При этом результативный признак Y называют также функцией отклика или объясняемой, выходной, результирующей, эндогенной переменной, а факторный признак X - регрессором или объясняющей, входной, предсказывающей, предикторной, экзогенной переменной.

    В параграфе 4.7 доказывалось, что условное математическое ожидание M(Y/X) = ср(х) дает наилучший прогноз У по X в среднеквадратическом смысле, т.е. M(Y- ф(х)) 2 M(Y-g(x)) 2 , где g(x) - любой другой прогноз УпоХ.

    Итак, регрессия - это односторонняя статистическая зависимость, устанавливающая соответствия между признаками. В зависимости от числа факторных признаков, описывающих явление, различают парную и множественную регрессии. Например, парная регрессия - это регрессия между затратами на производство (факторный признак X) и объемом продукции, производимой предприятием (результативный признак У). Множественная регрессия - это регрессия между производительностью труда (результативный признак У) и уровнем механизации производственных процессов, фондом рабочего времени, материалоемкостью, квалификацией рабочих (факторные признаки X t , Х 2 , Х 3 , Х 4).

    По форме различают линейную и нелинейную регрессии, т.е. регрессии, выражаемые линейной и нелинейной функциями.

    Например, ф(Х) = аХ + Ъ - парная линейная регрессия; ф(Х) = аХ 2 + + ЬХ + с - квадратическая регрессия; ф(Х 1? Х 2 ,..., Х п ) = р 0 4- fi { X { + р 2 Х 2 + ... + p„X w - множественная линейная регрессия.

    Проблема выявления статистической зависимости имеет две стороны: установление тесноты (силы) связи и определение формы связи.

    Установлению тесноты (силы) связи посвящен корреляционный анализ , назначение которого - получить на основе имеющихся статистических данных ответы на следующие основные вопросы:

    • как выбрать подходящий измеритель статистической связи (коэффициент корреляции, корреляционное отношение, ранговый коэффициент корреляции и т.п.);
    • как проверить гипотезу о том, что полученное числовое значение измерителя связи действительно свидетельствует о наличии статистической связи.

    Определением формы связи занимается регрессионный анализ. При этом назначение регрессионного анализа - решение на основе имеющихся статистических данных следующих задач:

    • выбор вида функции регрессии (выбор модели);
    • нахождение неизвестных параметров выбранной функции регрессии;
    • анализ качества функции регрессии и проверка адекватности уравнения эмпирическим данным;
    • прогноз неизвестных значений результативного признака по заданным значениям факторных признаков.

    На первый взгляд может показаться, что понятие регрессии сходно с понятием корреляции, так как в обоих случаях речь идет о статистической зависимости между исследуемыми признаками. Однако на самом деле между ними есть существенные различия. Регрессия подразумевает причинную взаимосвязь, когда изменение условного среднего значения результативного признака происходит вследствие изменения факторных признаков. Корреляция же ничего не говорит о причинной зависимости между признаками, т.е. если установлено наличие корреляции между X и У, то этот факт не подразумевает того, что изменения значений X обусловливают изменение условного среднего значения У. Корреляция всего лишь констатирует факт того, что изменения одной величины в среднем соотносятся с изменениями другой.

    Стохастическая эмпирическая зависимость

    Зависимость между случайными величинами называется стохастической зависимостью. Она проявляется в изменении закона распределения одной из них (зависимой переменной) при изменении других (аргументов).

    Графически стохастическая эмпирическая зависимость, в системе координат зависимая переменная - аргументы , представляет собой множество случайно расположенных точек, которое отражает общую тенденцию поведения зависимой переменной при изменении аргументов.

    Стохастическая эмпирическая зависимость от одного аргумента называется парной зависимостью, если аргументов более одного - многомерной зависимостью. Пример парной линейной зависимости приведён на рис. 1.()

    Рис. 1.

    В отличие от обычной функциональной зависимости, в которой изменениям значения аргумента (или нескольких аргументов) отвечает изменение детерминированной зависимой переменной, в стохастической зависимости при этом происходит изменение статистического распределения случайной зависимой переменной, в частности, математического ожидания.

    Задача математического моделирования (аппроксимации)

    Построение стохастической зависимости иначе называется математическим моделированием (аппроксимацией) или приближением и состоит в нахождении её математического выражения (формулы).

    Эмпирически установленная формула (функция), которая отражает не всегда известную, но объективно существующую истинную зависимость и отвечает основному, устойчивому, повторяющемуся отношению между предметами, явлениями или их свойствами, рассматривается как математическая модель.

    Устойчивое отношение вещей и их истинная зависимость. моделируется она или нет, существует объективно, имеет математическое выражение, и рассматривается как закон или его следствие.

    Если подходящие закон или следствие из него известны, то их естественно рассматривать в качестве искомой аналитической зависимости. Например, эмпирическая зависимость силы тока I в цепи от напряжения U и сопротивления нагрузки R следует из закона Ома:

    К сожалению, истинная зависимость переменных в подавляющем большинстве случаев априорно неизвестна, поэтому возникает необходимость её обнаружения, исходя из общих соображений и теоретических представлений, то есть построения математической модели рассматриваемой закономерности. При этом учитывается, что заданные переменные и их приращения на фоне случайных колебаний отражают математические свойства искомой истинной зависимости(поведение касательных, экстремумы, корни, асимптоты и т.п.)

    Подбираемая, так или иначе, аппроксимирующая функция сглаживает (усредняет) случайные колебания исходных эмпирических значений зависимой переменной и, подавляя тем самым случайную составляющую, является приближением к регулярной составляющей и, стало быть, к искомой истинной зависимости.

    Математическая модель эмпирической зависимости имеет теоретическое и практическое значение:

    · позволяет установить адекватность экспериментальных данных тому или иному известному закону и выявить новые закономерности;

    · решает для зависимой переменной задачи интерполяции внутри заданного интервала значений аргумента и прогнозирования (экстраполяции) за пределами интервала.

    Однако, несмотря на большой теоретический интерес нахождения математической формулы для зависимости величин, на практике часто достаточно лишь определить, есть ли между ними связь и какова её сила.

    Задача корреляционного анализа

    Методом изучения взаимосвязи между изменяющимися величинами является корреляционный анализ.

    Ключевым понятием корреляционного анализа, описывающим связь между переменными является корреляция (от английского correlation - согласование, связь, взаимосвязь, соотношение, взаимозависимость ).

    Корреляционный анализ используется для обнаружения стохастической зависимости и оценки её силы (значимости) по величине коэффициентов корреляции и корреляционного отношения.

    Если связь между переменными обнаружена, то говорят, что корреляция присутствует или что переменные коррелированны.

    Показатели тесноты связи (коэффициент корреляции, корреляционное отношение) по модулю изменяются от 0(при отсутствии связи) до 1(при вырождении стохастической зависимости в функциональную).

    Стохастическая связь полагается значимой (реальной), если абсолютная оценка коэффициента корреляции (корреляционного отношения) значима, то есть в 2-3 превышает стандартное отклонение оценки коэффициента.

    Отметим, что в некоторых случаях связь может быть обнаружена между явлениями, не находящимися в очевидных причинно-следственных отношениях.

    Например, для некоторых сельских районов выявлена прямая стохастическая связь между числом гнездящихся аистов и рождающихся детей. Весенний подсчёт аистов позволяет предсказывать, сколько в этом году родится детей, но зависимость, конечно, не доказывает известное поверье, и объясняется параллельными процессами:

    · рождению детей обычно предшествует образование и обустройство новых семей с обзаведением сельскими домами и подворьями;

    · расширение возможностей гнездования привлекает птиц и увеличивает их количество.

    Подобная корреляция между признаками называется ложной(мнимой) корреляцией, хотя она может иметь прикладное значение.