Machine learning сменил Big Data

2

Интересная статейка. Когда это должно было произойти.

Все-таки не зря я говорил, что это маркетинг вендоров. Успешных кейсов по Big Data не так много. На смену теперь пришли алгоритмы machine Learning. А вот визуальная классификация алгоритмов.

 

Machine Learning

Удачи Вам!

Какая точность считается нормальной?

0

Каждый раз когда речь заходит о моделировании, мне очень часто приходится слышать вопрос — как вы считаете, какая точность является нормальной. И я всегда не могу на него ответить однозначно, назвав какую-то величину.  В моем блоге достаточно примеров, когда точность важна, когда я писал про моделирование потребления электроэнергии, когда каждый закупленный в пустую киловатт может пропасть, а не закупленный может не принести желанной прибыли, но мог быть реализован. В то же время бывают другие ситуации, когда точность прогноза не столь важна, особенно если для достижения точности приходится значительно усложнять модель, которая в конечном итоге плохо интерпретируется, а иногда и вовсе становится неустойчивой на более длительных отрезках времени.

Попробуем на примерах показать, что есть хорошо, а что есть плохо.

Пример 1

Модель на тестовой выборке показывает 60%. Я бы не советовал брать такую модель. Это очень низкий показатель, близкий по сути к угадыванию, которая на боевых данных может не дать хорошего результата, особенно, если сам прогнозируемый фактор имеет очень маленький вес.

Но бывают и другие ситуации, нужно с чего-то начать, и если сравнивать взять просто список клиентов и начать обзвон или применить модель а потом по полученному списку начать обзвон, то я бы советовал использовать модель, чем совсем бездумно начать звонить. Эффект может быть все же выше с моделью. Да, эффект будет незначительным, но это лучше, чем ничего.

Пример 2

Модель на тестовой выборке показывает 87%. Такая точность может дать неплохие результаты на реальных данных, но они могут быть далеки от идеала по следующим причинам: недостаточно данных для обучения. Модель была построена на маленькой выборке, не являющейся репрезентативной, что обязательно скажется на качестве прогноза. Но если задача начать, то это тоже неплохо.

Пример 3

Модель показывает результат 97%. Модель должна показывать неплохой результат, если конечно вы не заигрались с ее переобучиванием. Но в некоторых случаях и такой точности может быть недостаточно. Когда это может произойти. Если переменная, которую вы прогнозируете может зависеть от случайного фактора, вес которого может быть значительный. Например, вы прогнозируете отток абонентов и знаете, что в 50% случаях отток происходит по причине переезда. Да, модель может выделить тех абонентов, которые были похожи на тех, кто переезжал, но это не значит что спрогнозированный абонент переедет. Отсюда нужно всегда выделять факторы, которые случайны и по возможности работать с меньшей выборкой, потому как прогнозировать абонентов, которые переедут не ваша задача, ваша задача прогнозировать абонентов, которые уйдут в отток.

В этом случае достичь 97%, конечно никогда не удастся. Поэтому всегда важно определить что именно вы прогнозируете и от каких факторов зависит прогнозируемая величина.

Можно попробовать ответить универсально, если больше 95% то это хорошо, главное что вы прогнозируете ту величину, которую можно прогнозировать.

Также на точность может влиять сезонность, если у вас недостаточно данных, вы, например, использовали данные в пиковый сезон, а на фактический данных вам предстоит получить прогноз в сезон меньших продаж. В этом случае модель не будет устойчивой и величина в 97% вообще ничего не значит.

Удачи вам, будьте внимательны!

PSPP — бесплатная замена SPSS Statistics

1

Обнаружил интересный проект, по мнению авторов которого, они считают свое решение полноценной заменой SPSS Statistics, информацию можно найти по адресу https://www.gnu.org/software/pspp/. Там же можно найти и скачать дистрибутив и документацию.

Как пишут авторы есть всего несколько отличий: ваши лицензии никогда не закончатся, нет никаких ограничений по количеству строк и столбцов, система поддерживает больше миллиона значений и переменных, вся функциональность содержится в базовом пакете, не нужно искать никаких расширений, как это сделано в SPSS. Все эти ограничения конечно же положительные.

Небольшое добавление: если у вас windows придется немного повозится чтобы поставить cygwin.

Ну что же, нужно протестировать и составить свое впечатление. Мое убеждение о том, что инструмент сейчас обесценивается, только растет. В тренде именно отраслевые бизнес-решения.

Удачи вам и не спешите платить за инструмент, пусть даже вам его продает команда лучших маркетологов!

Что компаниям нужно от Data Scientist

0

Многие компании на рынке, вероятно после участия их IT в конференциях или начитавшись зарубежной литературы/прессы начали подбирать себе персонал, имеющий соответствующий опыт на позицию Data Scientist (Data — аналитик). Самое смешное, что сейчас многие просто меняют название вакансий аналитиков, добавляют в требования в Python и R, все, получается Data Scientist.

Не знаю, конечно, какую они цель преследуют и какие конкретно задачи решают, но после детального изучения таких вакансий заметил одну интересную особенность.

  • Практически в 95% случаев требуется знание Python и R, иногда требуется знание SQL. Как будто другой инструментарий компании попросту игнорируют или не хотят использовать. Причем иногда это именно обязательные требования. Мне очень странно это видеть, понятно, что это все Open-source инструменты (бесплатные), достаточно скачать интерпретаторы, но ведь очевидно, что поддерживать это хозяйство достаточно затратно с точки зрения персонала, документации кода и т.д.  Ок, я не против, но мне как-то режет это слух. Т.е. если человек использует какой-то другой пакет статистики он уже не Data scientist, open-source решений с визуальным интерфейсом полно, скорость обработки возрастает в разы, поддержка и передача функционала много проще, но главное требование умение писать код.  
  • Практически все требуют опыт от года. Хорошее требование, ничего не скажешь, но учитывая что в России практического использования все-таки не так много, переход на Open-source идет слабовато. Маленькие компании, которые могли бы этим заниматься особо этим и не занимаются, а большие достаточно состоятельные, чтобы использовать коммерческие решения, остаются только IT компании. Их не так много, соответственно есть дефицит.
  • Мало кто в требованиях пишет наличие отраслевого опыта. Предполагается, что любой Data Scientist придет и сразу врубиться в специфику бизнеса. Спешу расстроить, в некоторых компаниях вход нового сотрудника идет от полугода, соответственно чего он там настроит не понятно. И как будет интерпретировать модели. Мне достаточно часто приходилось видеть проблемы аналитиков, которые имеют маленький опыт и не учитывают множество факторов. Чаще всего проблемы возникают при интерпретации и проверках «от дурака», когда модель выдает совершенно немыслимый результат на фактических данных. Например, может получиться абсолютно нереальная величина, например, по длительности разговоров. Т.е .прогнозируемая величина может оказаться выше максимально возможной длительности в сутках. Я таких примеров могу привести множество. И хотя я сторонник универсальности аналитиков, я все же понимаю в этом случае, что опыт работы аналитиком достаточный, чтобы не делать элементарные ляпы в виде таких примеров. 
  • Самый на мой взгляд важный момент в этой профессии — интерпретация полученного в результате моделирования результата и умение обосновать и защитить полученный результат — я видел в описании лишь одной вакансии и то на английском языке. На мой взгляд, это должно быть самым главным требованием. Если «ученый данных» что-то там смоделировал, но даже на русском языке не может сформулировать, как этот результат может быть использован, то грош цена таким результатам.
Недавно в одной статейке на английском языке читал, что компании должны вкладывать в понятие Data Scientest и там конечно требования достаточно огромны, начиная от знания математического аппарата, умения программировать, знания Hadoop, R, Python, заканчивая знаниями отраслевой специфики, умением интерпретировать полученные результаты, умением защищать полученные результаты и презентовать их руководителям на «человеческом» языке. А если потенциальный претендент не обладает хотя бы одним навыком, то он не может называть себя Data Scientest. 
Если сравнить требования вакансий и требования, описанные в этой статье, то ни одна их этих вакансий вообще не соответствует этим требованиям, некоторые соответствуют процентов на 50%.
А если еще и посмотреть на реальность внутри компаний, на поверку окажется что для решения 95% задач абсолютно не требуются искомые в вакансии компетенции, то можно прийти к неутешительному выводу, что нам еще далековато до «ученых данных». Вероятно такие есть в университетах, может даже в IT-компаниях. Но уверен в реальности и не все они соответствуют требованиям, таких единицы.
Что самое интересное, что для компетентных специалистов и вакансий таких-то нет, т.е. либо задачки слабоваты либо уровень оплаты.
Вот и остается им участвовать в конкурсах Kaggle.
Надеюсь когда-нибудь дорастем.
Удачи вам!

BDaaS — Big Data as a Service

0

Недавно услышал новый термин и сразу резануло ухо. Опять новомодное слово. Скоро все что сдается в аренду будет иметь приставку aaS — As a Service — как сервис. С одной стороны я согласен, что стоимость владения некой инфраструктурой действительно можно оптимизировать, если взять эту инфраструктуру в аренду. С другой стороны, зачем брать нечто в аренду, что не дает тебе никакого бизнес-value. Ведь не для всякого бизнеса Big Data вообще может дать какой-то результат. То есть этот результат будет, но выигрыш будет ничтожным по сравнению с тем, что может дать и традиционный инструментарий.

Причем что интересно, количество решений, позволяющих решать задачи класса Big Data растет просто ошеломляющими темпами, но при этом громких успешных кейсов не так-то и много и более того часть этих кейсов можно решать традиционным способом. На мой взгляд есть более перспективная ниша, а именно не просто Big Data as a Service а готовый сервис с преднастроенными моделями данных, позволяющих решать конкретные задачи бизнес-заказчика. Такие модели должны быть не просто построены на статичной архитектуре, а быть адаптивными к набору данных заказчика. И хотя я скептически отношусь к разного рода готовым моделям в BI. Готовое решение, с реальными зашитыми бизнес-кейсами внутри, которое можно потестировать на своих данных, является более многообещающим решением, на мой взгляд, чем использования технологий обработки данных.

Что толку тестировать инструмент без решения конкретной задачи, если можно решать уже конкретную бизнес-задачу на своих данных, оценивать эффективность и практически мгновенно понимать на сколько использование этого инструментария окупается.

На мой взгляд появление такого рода систем позволит сделать качественный скачок в обслуживании клиентов при небольших затратах организации.

Я пока мало слышал о таких готовых решениях, есть наработки по обработке данных соц. сетей при обработке отзывов, надеюсь мы будем слышать о таких решениях все чаще и они действительно рано или поздно вытеснят традиционный инструментарий.

Удачи вам! Стройте умный бизнес!

Удачи Вам!

Вверх