IT горячка в Сиэттле, эпизод 2

Ответить
Аватара пользователя
Dweller
Уже с Приветом
Сообщения: 12262
Зарегистрирован: Ср дек 20, 2000 4:01 am
Откуда: Bellevue, WA

Re: IT горячка в Сиэттле, эпизод 2

Сообщение Dweller »

А давайте ка я подброшу дровишек в огонь и скажу что все мои три оффера где дали приличные деньги пришли от нанимающих менеджеров родом из России. При том что кроме них самих на интервью из России/бСССР никого другого не было - только стандартно в основном американцы китайцы индусы.
Аватара пользователя
Komissar
Уже с Приветом
Сообщения: 64875
Зарегистрирован: Пт июл 12, 2002 11:38 am
Откуда: г.Москва, ул. Б. Лубянка, д.2

Re: IT горячка в Сиэттле, эпизод 2

Сообщение Komissar »

Dweller писал(а): Ср фев 26, 2020 12:02 pm А давайте ка я подброшу дровишек в огонь и скажу что все мои три оффера где дали приличные деньги пришли от нанимающих менеджеров родом из России.
По блату прошел!
Аватара пользователя
Dweller
Уже с Приветом
Сообщения: 12262
Зарегистрирован: Ср дек 20, 2000 4:01 am
Откуда: Bellevue, WA

Re: IT горячка в Сиэттле, эпизод 2

Сообщение Dweller »

Komissar писал(а): Чт фев 27, 2020 1:26 am
Dweller писал(а): Ср фев 26, 2020 12:02 pm А давайте ка я подброшу дровишек в огонь и скажу что все мои три оффера где дали приличные деньги пришли от нанимающих менеджеров родом из России.
По блату прошел!
Ну так невеста была уже немолода ;)
Chessplayer
Уже с Приветом
Сообщения: 345
Зарегистрирован: Пн ноя 26, 2007 11:33 pm

Re: IT горячка в Сиэттле, эпизод 2

Сообщение Chessplayer »

Dweller писал(а): Ср фев 05, 2020 1:38 pm А насчёт Гугл - ходил я к ним на L6, но ML позиций не было в киркланде, поэтому просто на бакенд, не взяли ... Очегь высокая планка там
Dweller, а на ML позиции в Гугле и FB требования на интервью такие же как для Software Engineers? Т.е. нужен System Design и еже с ним? Меня больше со стороны ML Science и model development это интересует, а не Engineering. У них есть отдельный трэк для таких людей или туда потом отбирают из софтверных инженеров? Или такими вещами только в Гугл Брэйн и FB Research занимаются? Я знаю, что есть отдельный трэк для Data Science, но у меня сложилось впечатление, что там только традиционный ML без нейронных сетей - это так или возможны варианты? Я про Bay Area спрашиваю, ежели что.
Аватара пользователя
Dweller
Уже с Приветом
Сообщения: 12262
Зарегистрирован: Ср дек 20, 2000 4:01 am
Откуда: Bellevue, WA

Re: IT горячка в Сиэттле, эпизод 2

Сообщение Dweller »

ХЗ, я ж написал что интервью было не на ML позицию, поэтому не могу сказать что там было бы. Наверное ещё одна сессия с ML design
Аватара пользователя
IvanGrozniy
Уже с Приветом
Сообщения: 10413
Зарегистрирован: Ср фев 04, 2004 8:14 am
Откуда: Edgewater, NJ

Re: IT горячка в Сиэттле, эпизод 2

Сообщение IvanGrozniy »

Chessplayer писал(а): Пн мар 02, 2020 1:35 am что там только традиционный ML без нейронных сетей - это так или возможны варианты?
Я так понимаю нейронные сети в ML - этот тот же самый традиционный ML (linear/polynomial regression, logistic regression и т.д.), только со вставленными "скрытыми слоями". То есть, например, для нейронной архитектуры делаешь сначала linear regression на входных данных, потом берешь результаты и уже на них, как на входных параметрах делаешь еще один linear regression. Скрытых слоев может быть от 1 и более. Просто нужно часик-два потратить на формулы и понятно будет, что одинаковый подход, только добавлены дополнительные этапы между входными данными и результатами.
Chessplayer
Уже с Приветом
Сообщения: 345
Зарегистрирован: Пн ноя 26, 2007 11:33 pm

Re: IT горячка в Сиэттле, эпизод 2

Сообщение Chessplayer »

IvanGrozniy писал(а): Пн мар 02, 2020 9:52 am Я так понимаю нейронные сети в ML - этот тот же самый традиционный ML (linear/polynomial regression, logistic regression и т.д.), только со вставленными "скрытыми слоями". То есть, например, для нейронной архитектуры делаешь сначала linear regression на входных данных, потом берешь результаты и уже на них, как на входных параметрах делаешь еще один linear regression. Скрытых слоев может быть от 1 и более. Просто нужно часик-два потратить на формулы и понятно будет, что одинаковый подход, только добавлены дополнительные этапы между входными данными и результатами.
То что вы описали - это через чур упрощенное понимание нейронных сетей и именно в таком виде мало где используется. В последние десять лет было разработано большое количество разных подходов и архитектур (CNN, RNN/LSTM, transformers, etc) для решения задач компьютерного зрения и обработки текстов. В широком смысле слова эта область получила название AI. Возьмите какой-нибудь базовый курс на эту тему, если вам интересно.

У меня сложилось впечатление, что Data Scientist-ы в Гугле и Фэйсбуке работают со стандартными алгоритмами больше подходящими для табличных данных или временных рядов (типа random forest или clustering) и в AI не лезут, но может быть я ошибаюсь?
Последний раз редактировалось Chessplayer Пн мар 02, 2020 2:54 pm, всего редактировалось 1 раз.
Chessplayer
Уже с Приветом
Сообщения: 345
Зарегистрирован: Пн ноя 26, 2007 11:33 pm

Re: IT горячка в Сиэттле, эпизод 2

Сообщение Chessplayer »

Кстати, отмечу один важный момент: то, что вы описали выше - это по прежнему линейная регрессия, а не нейронная сеть. Чтобы получить нейронную сеть, хотя бы один из слоев должен содержать нелинейность. Иначе перегруппировав параметры в этой сети, ее можно опять свести к обычной линейной регрессии.
Аватара пользователя
IvanGrozniy
Уже с Приветом
Сообщения: 10413
Зарегистрирован: Ср фев 04, 2004 8:14 am
Откуда: Edgewater, NJ

Re: IT горячка в Сиэттле, эпизод 2

Сообщение IvanGrozniy »

Chessplayer писал(а): Пн мар 02, 2020 2:41 pm
IvanGrozniy писал(а): Пн мар 02, 2020 9:52 am Я так понимаю нейронные сети в ML - этот тот же самый традиционный ML (linear/polynomial regression, logistic regression и т.д.), только со вставленными "скрытыми слоями". То есть, например, для нейронной архитектуры делаешь сначала linear regression на входных данных, потом берешь результаты и уже на них, как на входных параметрах делаешь еще один linear regression. Скрытых слоев может быть от 1 и более. Просто нужно часик-два потратить на формулы и понятно будет, что одинаковый подход, только добавлены дополнительные этапы между входными данными и результатами.
То что вы описали - это через чур упрощенное понимание нейронных сетей и именно в таком виде мало где используется. В последние десять лет было разработано большое количество разных подходов и архитектур (CNN, RNN/LSTM, transformers, etc) для решения задач компьютерного зрения и обработки текстов. В широком смысле слова эта область получила название AI. Возьмите какой-нибудь базовый курс на эту тему, если вам интересно.

У меня сложилось впечатление, что Data Scientist-ы в Гугле и Фэйсбуке работают со стандартными алгоритмами больше подходящими для табличных данных или временных рядов (типа random forest или clustering) и в AI не лезут, но может быть я ошибаюсь?
Я как раз лабораторную делаю по распознаванию циферок на картинке. Формула та же самая, как и в не нейронных сетях (прикреплена). Просто в цикле 10 раз обсчитываются параметры для логической классификации на каждую циферку. Здесь для распознавания рукописных цифр даже скрытых слоев не нужно для выбранной нейро-архитектуры. Входные данные - цвета 400 пикселей для каждой написанной цифры, выходные данные просто классификатор 1 или 0 каждой определенной цифры.
Бесплатная база данных 5000 примеров написания цифр можно скачать у профессоре LeCun по ссылке http://yann.lecun.com/exdb/mnist/
Он для почты США делал распознавание лет 20-30 назад.
Думаю, распознавание рукописных текстов только по входным данным побольше, а алгоритм тот же.
У вас нет необходимых прав для просмотра вложений в этом сообщении.
Последний раз редактировалось IvanGrozniy Пн мар 02, 2020 4:27 pm, всего редактировалось 1 раз.
Аватара пользователя
IvanGrozniy
Уже с Приветом
Сообщения: 10413
Зарегистрирован: Ср фев 04, 2004 8:14 am
Откуда: Edgewater, NJ

Re: IT горячка в Сиэттле, эпизод 2

Сообщение IvanGrozniy »

Chessplayer писал(а): Пн мар 02, 2020 2:53 pm Кстати, отмечу один важный момент: то, что вы описали выше - это по прежнему линейная регрессия, а не нейронная сеть. Чтобы получить нейронную сеть, хотя бы один из слоев должен содержать нелинейность. Иначе перегруппировав параметры в этой сети, ее можно опять свести к обычной линейной регрессии.
Ну вот что значит нелинейность? Логический классификатор по умолчанию нелинейный. Сигмоидная функция для предсказывания единицы или нуля h(theta) = 1 / (1 + e ^ -(z)) уже содержит экспоненту в степени. Просто параметр Z линейное уравнение от параметров тренировочного сэта X. Уже никак не свести к линейной регрессии. Если нужно, то входные парметры Z можно сделат полиномом нужной степени. Только нужно аккуратно делать, чтобы не было проблемы overfitting, когда вроде бы модель все данные покрывает, а предсказывает коряво. На много размерных данных все равно сразу полиномом нельзя делать, так как визуально не представишь, что происходит. Я бы, наверное, 3 типа реализовывал для сравнения: линейную, полиномиальную и полиномиальную с regularization.
Chessplayer
Уже с Приветом
Сообщения: 345
Зарегистрирован: Пн ноя 26, 2007 11:33 pm

Re: IT горячка в Сиэттле, эпизод 2

Сообщение Chessplayer »

IvanGrozniy писал(а): Пн мар 02, 2020 4:25 pm Ну вот что значит нелинейность? Логический классификатор по умолчанию нелинейный. Сигмоидная функция для предсказывания единицы или нуля h(theta) = 1 / (1 + e ^ -(z)) уже содержит экспоненту в степени. Просто параметр Z линейное уравнение от параметров тренировочного сэта X. Уже никак не свести к линейной регрессии. Если нужно, то входные парметры Z можно сделат полиномом нужной степени. Только нужно аккуратно делать, чтобы не было проблемы overfitting, когда вроде бы модель все данные покрывает, а предсказывает коряво.
Логический - да, но у вас выше шла речь про линейную регрессию, что не есть logisitic regression.
Аватара пользователя
IvanGrozniy
Уже с Приветом
Сообщения: 10413
Зарегистрирован: Ср фев 04, 2004 8:14 am
Откуда: Edgewater, NJ

Re: IT горячка в Сиэттле, эпизод 2

Сообщение IvanGrozniy »

Chessplayer писал(а): Пн мар 02, 2020 4:35 pm
IvanGrozniy писал(а): Пн мар 02, 2020 4:25 pm Ну вот что значит нелинейность? Логический классификатор по умолчанию нелинейный. Сигмоидная функция для предсказывания единицы или нуля h(theta) = 1 / (1 + e ^ -(z)) уже содержит экспоненту в степени. Просто параметр Z линейное уравнение от параметров тренировочного сэта X. Уже никак не свести к линейной регрессии. Если нужно, то входные парметры Z можно сделат полиномом нужной степени. Только нужно аккуратно делать, чтобы не было проблемы overfitting, когда вроде бы модель все данные покрывает, а предсказывает коряво.
Логический - да, но у вас выше шла речь про линейную регрессию, что не есть logisitic regression.
Глянул в написанное, вы правы. Там две опечатки :D
Chessplayer
Уже с Приветом
Сообщения: 345
Зарегистрирован: Пн ноя 26, 2007 11:33 pm

Re: IT горячка в Сиэттле, эпизод 2

Сообщение Chessplayer »

IvanGrozniy писал(а): Пн мар 02, 2020 4:22 pm Я как раз лабораторную делаю по распознаванию циферок на картинке. Формула та же самая, как и в не нейронных сетях (прикреплена). Просто в цикле 10 раз обсчитываются параметры для логической классификации на каждую циферку. Здесь для распознавания рукописных цифр даже скрытых слоев не нужно для выбранной нейро-архитектуры. Входные данные - цвета 400 пикселей для каждой написанной цифры, выходные данные просто классификатор 1 или 0 каждой определенной цифры.
Бесплатная база данных 5000 примеров написания цифр можно скачать у профессоре LeCun по ссылке http://yann.lecun.com/exdb/mnist/
Он для почты США делал распознавание лет 20-30 назад.
Думаю, распознавание рукописных текстов только по входным данным побольше, а алгоритм тот же.
Методы Yann LeCunn работают (медленно) только для маленьких картинок и определенных задач. Для более сложных задач fully connected neural net будет слишком тяжелой и поэтому используют CNN. Но вы на правильном пути: пройдете базовый курс Andrew Ng, потом возьмите его курс по deep learning.
Chessplayer
Уже с Приветом
Сообщения: 345
Зарегистрирован: Пн ноя 26, 2007 11:33 pm

Re: IT горячка в Сиэттле, эпизод 2

Сообщение Chessplayer »

Снежная Королева писал(а): Пн мар 02, 2020 4:46 pm Вы будете смеяться, но logistics regression именно что одна из разновидностей линейных моделей. Это статистика 101.
Я полагаю, что у вас была двойка по статистике и по чтению.
Chessplayer
Уже с Приветом
Сообщения: 345
Зарегистрирован: Пн ноя 26, 2007 11:33 pm

Re: IT горячка в Сиэттле, эпизод 2

Сообщение Chessplayer »

Снежная Королева писал(а): Пн мар 02, 2020 4:54 pm Вы несогласны с моим утверждением?
Нет, поскольку linear models описывают регрессию, а logistic regression - классификацию. Т.е. конечно можно это всё назвать линейными моделями, но в разрезе нашего разговора ИваномГрозным о нейронках, между ними есть принципиальная разница связанная с нелинейностью.
Ответить

Вернуться в «Работа и Карьера в IT»