Айтишники на пенсии

Moderator: sss1

User avatar
АццкоМото
Уже с Приветом
Posts: 15276
Joined: 01 Mar 2007 05:18
Location: VVO->ORD->DFW->SFO->DFW->PDX

Re: Айтишники на пенсии

Post by АццкоМото »

Физик-Лирик wrote: 16 May 2017 05:17
АццкоМото wrote: 16 May 2017 05:13 Ещё раз, не иксперд и ТВИМС не любил.
Но КМК нельзя так. Если популяция бесконечна, мы не сможем найти даже среднее.
Нужно увязывать размер популяции как зависимость от размера выборки. Т.е. при стремлении n к бесконечности меняется популяция. А это уже чёрное шаманство.

Чтобы это все имело смысл, нужно чётко оговаривать многие допущения, видимо, их тупо срезали до "попроще"
Ну почему среднее найти не можем? Если известно распределение, ещё как можем.
Перефразируя вас: если среднее известно заранее, то мы его найдем ;)

И.е. чтобы был смысл, нужны невысказанные допущения

Ну и отдельно зачот ksi про невозможность сходимости при n к бесконечности к чему-то, что зависит от n. Это какой-то адъ
Мат на форуме запрещен, блдж!
ksi
Уже с Приветом
Posts: 10066
Joined: 20 May 1999 09:01

Re: Айтишники на пенсии

Post by ksi »

Снежная Королева wrote: 16 May 2017 04:44
ksi wrote: 16 May 2017 03:47
Снежная Королева wrote: 16 May 2017 03:34
ksi wrote: 16 May 2017 03:25 "Ряд положительных величин" - странно звучит для теории вероятностей, вы наверное что-то путаете.
Sequence of positive random variables.

У меня с русским языком плохо :oops:
Ох, не верю я что есть что-то похожее в вероятности. Positive режет слух.

Если это был усиленный закон больших чисел, то он совсем по другому формулируется, да и трудно забыть его формулировку. Что-то вы явно позабыли
Зря он вам режет слух :) что такого странного в i.i.d. positive random variables? Таких распределений полно. То же exponential distribution, как пример. Случайная величина Y_n/n сходится к нулю по вероятности, когда n стремится к бесконечности, а если E(Y1) ещё и bounded , то оно сходится почти наверное. У меня были проблемы с доказательством почти наверное.

Если интересно, все лекции в открытом доступе, могу ссылку дать (warning: measure theoretic probability theory не для слабонервных).
Я кажется понял, что вы имели в виду :-) У вас есть последовательность i.i.d. random variables Y(i), доказать, что Y(i)/n ->0 a.s. если E|Y(i)| конечно. Правильно?

Это никакая не теорема, она не имеет никакого особого названия и смысла в теории вероятностей. Это скорей упражнение на подход, которым такие вещи обычно доказываются (включая усиленный закон больших чисел) - то есть с помощью закона 0-1, или леммы Бореля-Кантелли.
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Айтишники на пенсии

Post by Физик-Лирик »

АццкоМото wrote: 16 May 2017 05:13 Ещё раз, не иксперд и ТВИМС не любил.
А кто эту статистику любил? Я ни тервер ни статистику на дух не переносил. В институте статистика благо всего один семестр была, да и то зачёт. В молекулярной физике от распределений просто тошнило. Правда когда теоретическая физика пошла, вроде как привык. Потом когда уравнением Больцмана разрешённые течения и плазмы моделировали, очень проникся идеями. А когда стали заниматься дурацкие дейта сайнсом - тут уж жизнь заставила.

Давайте рассмотрим бесконечную популяцию. В чем проблема? Генерируем бесконечное число выборок фиксированного размера. Потом увеличиваем размер выборки и т.д. Смотрим сходимости. Скажем так. Для заданного эпсилон находим такой размер, чтобы распределение средних значений, рассчитанных для этих выборок, отличалось от нормального меньше чем на эпсилон (сходимости функций).
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Айтишники на пенсии

Post by Физик-Лирик »

ksi wrote: 16 May 2017 05:27
Я кажется понял, что вы имели в виду :-) У вас есть последовательность i.i.d. random variables Y(i), доказать, что Y(i)/n ->0 a.s. если E|Y(i)| конечно. Правильно?

Это никакая не теорема, она не имеет никакого особого названия и смысла в теории вероятностей. Это скорей упражнение на подход, которым такие вещи обычно доказываются (включая усиленный закон больших чисел) - то есть с помощью закона 0-1, или леммы Бореля-Кантелли.
Нет, неправильно поняли. Да и лемма Бореля-Кантели здесь не причём.
Снежная Королева wrote: 16 May 2017 05:21 Сорри, я туплю. X1, X2 etc это не population, а random sample from a population.

Def: a collection of random variables X1, X2, ..., Xn is said to be a random sample of size n if they are i.i.d.

Уф. Ну вы меня заставили думать сегодня :D
Не годится. Где тут a collection of random variables X1, X2, ..., Xn?
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Айтишники на пенсии

Post by Физик-Лирик »

Народ, я не понимаю с какого боку вы тут лемма Бореля-Кантели? Нет, давайте обсудим. Мне всегда интересно умные мысли послушать. Глядишь, и сам чего выучу.

Насчёт формулировки теорем. Зайдите на Интернет, наберите CLT, почитайте формулировки. Найдёте все варианты.
ksi
Уже с Приветом
Posts: 10066
Joined: 20 May 1999 09:01

Re: Айтишники на пенсии

Post by ksi »

Снежная Королева wrote: 16 May 2017 05:33
ksi wrote: 16 May 2017 05:27 Я кажется понял, что вы имели в виду :-) У вас есть последовательность i.i.d. random variables Y(i), доказать, что Y(i)/n ->0 a.s. если E|Y(i)| конечно. Правильно?

Это никакая не теорема, она не имеет никакого особого названия и смысла в теории вероятностей. Это скорей упражнение на подход, которым такие вещи обычно доказываются (включая усиленный закон больших чисел) - то есть с помощью закона 0-1, или леммы Бореля-Кантелли.
Почти правильно :) Y(i) must be > 0.

Согласна, это не теорема. Я там потом поправилась. Это такое маааленькое упражненьице. Над которым я 3 недели думала, имея полное доказательство. А у меня было 5-6 таких было каждую неделю.
Насчет Y (i) > 0 это неважно. Это должно быть верно всегда, если E|Y(i)| конечно.
ksi
Уже с Приветом
Posts: 10066
Joined: 20 May 1999 09:01

Re: Айтишники на пенсии

Post by ksi »

Физик-Лирик wrote: 16 May 2017 05:40 Народ, я не понимаю с какого боку вы тут лемма Бореля-Кантели? Нет, давайте обсудим. Мне всегда интересно умные мысли послушать. Глядишь, и сам чего выучу.

Насчёт формулировки теорем. Зайдите на Интернет, наберите CLT, почитайте формулировки. Найдёте все варианты.
Ни с какого :D У СК была задачка совсем из другой области, к вашей не имеет никакого отношения. А про вашу я все написал выше: вторая формулировка просто такого "физического уровня строгости" :mrgreen: но понять о чем речь можно. Это следствие из первой. Неужели я так фигово объяснил :cry: ? Я старался, чтобы было совсем простыми словами и "немного букв"

PS. для банкиров и то понятнее написали http://www.investopedia.com/terms/c/cen ... heorem.asp чем в вашей второй формулировке. Но похоже ))
ksi
Уже с Приветом
Posts: 10066
Joined: 20 May 1999 09:01

Re: Айтишники на пенсии

Post by ksi »

Снежная Королева wrote: 16 May 2017 05:59
ksi wrote: 16 May 2017 05:41
Насчет Y (i) > 0 это неважно. Это должно быть верно всегда, если E|Y(i)| конечно.
Не-а, возьмём все четные Y 's равные минус нечетным Y's. Тогда ожидание равно нулю, но сходимости нет.
Они вообще-то i.i.d. должны ьыть то есть независимые, так брать нельзя. И почему все равно ожидание 0? Мы же не сумму считаем, а просто Y(n)/n
User avatar
АццкоМото
Уже с Приветом
Posts: 15276
Joined: 01 Mar 2007 05:18
Location: VVO->ORD->DFW->SFO->DFW->PDX

Re: Айтишники на пенсии

Post by АццкоМото »

Физик-Лирик wrote: 16 May 2017 05:28 Давайте рассмотрим бесконечную популяцию. В чем проблема? Генерируем бесконечное число выборок фиксированного размера. Потом увеличиваем размер выборки и т.д. Смотрим сходимости. Скажем так. Для заданного эпсилон находим такой размер, чтобы распределение средних значений, рассчитанных для этих выборок, отличалось от нормального меньше чем на эпсилон (сходимости функций).
Ох уж эти физики :)
Проблема в том, что бесконечности не существует :)

Подумайте сами, почему в данном определении не взяли сразу бесконечную выборку, а начали все эти приседания "при эн стремится к бесконечности"? Потому что ее нет и все наши инструменты здесь - это пределы/сходимости и эпсилон-дельта язык (что один хрен по сути). Ровно то же самое относится и к популяции. Причем мы не можем просто сказать, что она "стремиться к бесконечности", она должна стремиться туда быстрее, чем размер выборки, более того, чтобы остался смысл - "значительно" быстрее.

Не, конечно, в физике уже пес знает сколько лет священный грааль это диалог типа
- вся наша вселенная произошла из одной точки столько-то лет назад.
- дядя, а что было до этого? где была эта точка?
- отойди мальчик, нигде не была, и не было ничего до этого, нам не до сук, тут мля сходимость примерно к нипаняткам в уравнении и мы и так хер знает что с ней делать, а еще и малолетний дебил со своими вопросами

Но в математике такое не работает
Мат на форуме запрещен, блдж!
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Айтишники на пенсии

Post by Физик-Лирик »

АццкоМото wrote: 16 May 2017 06:17
Ох уж эти физики :)
Проблема в том, что бесконечности не существует :)

Подумайте сами, почему в данном определении не взяли сразу бесконечную выборку, а начали все эти приседания "при эн стремится к бесконечности"?
Вы все смешали в одну кучу, физику, математику.
Что значит бесконечности не существует? И что вас так смущает? Когда мы рассматриваем распределение Sn = X1 + X2 + ... Xn, где Х1, Х2, ... i.i.d., и теорема (первая формулировка) утверждает, что оно (распределение) стремится к нормальному, вас это тоже смущает? Объясните, что не так с бесконечностью?

Хорошо. Давайте сформулируем так. Дано распределение. Зафиксируем размер n. Далее проводим следующий эксперимент. Генерируем выборки данного размера. Для каждой выборки подсчитывает среднее. Далее изучаем распределение этих средних. Теорема (вторая формулировка) утверждает, что данное распределение стремится к нормальному N(mu, sigma^2/n). Так тоже не нравится? :D
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Айтишники на пенсии

Post by Физик-Лирик »

ksi wrote: 16 May 2017 05:46
Ни с какого :D У СК была задачка совсем из другой области, к вашей не имеет никакого отношения. А про вашу я все написал выше: вторая формулировка просто такого "физического уровня строгости" :mrgreen: но понять о чем речь можно. Это следствие из первой. Неужели я так фигово объяснил :cry: ? Я старался, чтобы было совсем простыми словами и "немного букв"
Плохо старались, поэтому ничего и не объяснили.

Теперь моя интерпретация. Генерируются выборки размером n. Это будут "последовательности" типа (х1, х2, ..., хn). Естественно, все эти "иксы" меняются от выборки к выборке. Определяем случайные величины следующим образом. Х1 "состоит" из первых элементов выше обозначенных последовательностей, т.е. все эти "икс один" - реализации случайной величины Х1. Далее определяем Х2 как вторые элементы (т.е. реализации) этих последовательностей. Так определяем все Х1, ..., Хn. Очевидно, что таким образом определённые случайные величины являются независимыми и одинаково распределёнными. Из построения следует, что распределение средних значений выборок эквивалентно распределению Sn. Значит можно применить теорему (первую формулировку). Таким образом показана эквивалентности двух формулировок.
Жду комментариев. Букв можно много. Главное, чтобы было по делу.
ksi
Уже с Приветом
Posts: 10066
Joined: 20 May 1999 09:01

Re: Айтишники на пенсии

Post by ksi »

Физик-Лирик wrote: 16 May 2017 12:46
ksi wrote: 16 May 2017 05:46
Ни с какого :D У СК была задачка совсем из другой области, к вашей не имеет никакого отношения. А про вашу я все написал выше: вторая формулировка просто такого "физического уровня строгости" :mrgreen: но понять о чем речь можно. Это следствие из первой. Неужели я так фигово объяснил :cry: ? Я старался, чтобы было совсем простыми словами и "немного букв"
Плохо старались, поэтому ничего и не объяснили.

Теперь моя интерпретация. Генерируются выборки размером n. Это будут "последовательности" типа (х1, х2, ..., хn). Естественно, все эти "иксы" меняются от выборки к выборке. Определяем случайные величины следующим образом. Х1 "состоит" из первых элементов выше обозначенных последовательностей, т.е. все эти "икс один" - реализации случайной величины Х1. Далее определяем Х2 как вторые элементы (т.е. реализации) этих последовательностей. Так определяем все Х1, ..., Хn. Очевидно, что таким образом определённые случайные величины являются независимыми и одинаково распределёнными. Из построения следует, что распределение средних значений выборок эквивалентно распределению Sn. Значит можно применить теорему (первую формулировку). Таким образом показана эквивалентности двух формулировок.
Жду комментариев. Букв можно много. Главное, чтобы было по делу.
В статистике надо уметь понимать, какая математическая концепция лежит за их словесами. Во второй формулировке "много" выборок по тем же соображениям почему надо монету бросить много раз, чтобы определить вероятность попадания орла или решки. Типа в пределе получается 1/2. Но это наивные представления о вероятности, 19 век, до создания ее математического базиса. Вероятность не может быть получена таким образом, как предел большого числа испытаний. Однако, такого типа объяснения еще остались в околоматематических рассуждениях.

Нету многих выборок, забудьте про это. Есть одна случайная выборка, которая состоит из реализаций i.i.d. случайных величин X_1....x_n, и соответственно реализация выборочного среднего S_n = (x_1 + ... +x_n)/n. То есть у вас есть случайная величина (математическая абстрация) S_n и есть ее реализиция, которую вы наблюдаете в природе (при фиксированном "омега" если идти от общепринятого аксиоматического подхода). Задача состоит в том, чтобы примерно дать закон распределения S_n потому что точно его найти нельзя. По центральной предельной теореме этот закон распределения аппроксимируется нормальным с теми параметрами, которые у вас были во второй формулировке. Это все с точки зрения математики.

Дальше в статистике добавляются объяснения, которые не все понимают. Хотя вы реально делаете только один эксперимент, одну выборку, но вы можете представить что делаете их очень много. Если вы сделаете из каждой такой мысленной реализации выборочное среднее и нанесете на гистограмму, то они распределяться в соответствии с вероятностым распределением S_n, которое точно неизвестно но примерно приближается вышенайденным нормальным распределением. Это такая частотная интерпретация понятия случайной выборки которая должна прояснить подход. Но на самом деле есть конечно только одна выборка, вы работаете только с одной реализацией ваших случайных величин.

Это очень базовый уровень понимая, чем вообще занимается математическая статистика. Это не совсем тривиальная идея, но ее надо понять иначе всегда будете путаться. Никогда не поймете, что стоит за базовыми понятиями мат. статистики типа доверительных интервалов и проверки гипотез.
ksi
Уже с Приветом
Posts: 10066
Joined: 20 May 1999 09:01

Re: Айтишники на пенсии

Post by ksi »

Снежная Королева wrote: 16 May 2017 13:50 Физик, ваша очередь. Объясните мне pointers in C :D
Это совсем просто :mrgreen: - это число, адрес в памяти компьютера. А непросто то, что если вы хотите знать это число, то его тоже надо куда-то положить, в другую ячейку. И так потенциально до бесконечности :D Поэтому и появляются типы вроде

Code: Select all

int *****
это адрес ячейки памяти где лежит адрес ячейки памяти .... где лежит ваш int :mrgreen: К сожалению, это суровая реальность, потому что объекты в памяти имеют свойство передвигаться с места на место, если недостаточно места, и таким образом следят где они сейчас находятся.
User avatar
Alexander Troyansky
Уже с Приветом
Posts: 5753
Joined: 15 Aug 2008 00:52

Re: Айтишники на пенсии

Post by Alexander Troyansky »

ksi wrote: 16 May 2017 16:31 К сожалению, это суровая реальность, потому что объекты в памяти имеют свойство передвигаться с места на место, если недостаточно места, и таким образом следят где они сейчас находятся.
уот это да! Керниган в курсе?
I would hope that a wise white man with the richness of his experiences would more often than not reach a better conclusion than a latina female who hasn't lived that life
User avatar
АццкоМото
Уже с Приветом
Posts: 15276
Joined: 01 Mar 2007 05:18
Location: VVO->ORD->DFW->SFO->DFW->PDX

Re: Айтишники на пенсии

Post by АццкоМото »

Мда... Движущиеся объекты — это пять
Мат на форуме запрещен, блдж!

Return to “Пенсии”