Business Intelligence

Стадии зрелости по работе с данными

0

Сегодня хотел бы поговорить о стадии зрелости по работе с данными любой коммерческой организации. В 2016 году компания EMC опубликовала материал, который был посвящен этому вопросу, я немного перерисовал его и перевел и хочу поделиться с вами этим материалом.

Самая начальная стадия по работе с данными — это накопление и анализ исторических данных. Тут мы больше погружаемся в то, что уже прошло и пытаемся объяснить поведение компании, анализируя события которые происходили в прошлом на основе фактов.

Вторая стадия — это поиск бизнес инсайтов. То есть мы не только анализируем, но и пытаемся понять какие-то закономерности, возможно скрытые факторы, которые не видны в трендах, но могут проявиться даже в будущем, например, если мы видим что какой-то тренд негативных событий нарастает и доля его постоянно увеличивается, несмотря на то, что он никак не проявляется на текущий момент.

Третья стадия — Оптимизация бизнеса — мы находим какие-то оптимальные факторы при которых компания показывает постоянный рост, еще лучше если мы этими факторами можем управлять и увеличивать наше воздействие с целью роста показателей.

Четвертая стадия — мы накопили множество информации и понимаем, что эта информация может быть не только полезна нам внутри, но может быть полезна другим контрагентам, которые на ее основе смогут получать лучшие результаты и готовы платить за эту информацию. Например, телеком операторы достаточно успешно продают информацию банкам о подтверждении анкетных данных по месту проживания, или о том как перемещаются потоки жителей, чтобы планировать инфраструктуру, например эта информация интересна ритейлу, или городским властям для планирования транспортной инфраструктуры. Вообще тема монетизации заслуживает отдельных постов, и может даже не одного. Поделюсь чуть позже этой информацией. А кому не терпится и уже сейчас готовы в это инвестировать, велкам в личку, поможем сформировать стратегию монетизации ваших данных.

Ну и наконец пятая стадия, это стадия трансформация бизнеса. Здесь речь не идет о каком-то конкретном подразделении, здесь речь идет о комплексном подходе, где каждый процесс так или иначе связан с данными, неважно какая это функция внутри организации. Любой процесс формируется таким образом, чтобы он был измеримым, любой продукт при запуске формируется таким образом и интегрируется в процессы, чтобы каждый этап процесса был измеримым и данные по нему могут быть легко получены. В каждом подразделении есть люди, которые работают с данными и улучшают бизнес. Но тут надо учесть один момент, это не про то, что мы запустили продукт, а потом думаем а как же посчитать по нему воронку, даже если это удается сделать, это вообще не об этом, это про то, что вы изначально в свои процессы при валидации продукта разрабатываете стратегию работы с данными и предъявляете требования к нему исходя из необходимости мониторинга, как если бы вы согласовывали с юристами доп. соглашение, ровно про это.

Вы изначально продумываете до мелочей какие данные и для чего будете использовать, а не так, что да ладно давайте накопим, а потом подумаем что с этим сделать, нет, нет и еще раз нет, на этой стадии у вас есть четкая стратегия работы с данными, вы знаете для чего каждый показатель, четко понимаете его методику и понимаете в каком виде он вам нужен, в сыром или агрегированном, а также можете оценить через какое время вам нужно модифицировать инфраструктуру не вдаваясь в пространные рассуждения, ну если нам будет нужно мы расширимся.

Самое интересное мое наблюдение в крупных компаниях, что IT подразделения не знают какие данные в хранилище и для чего они нужны бизнесу. А самое интересное — это то, что в большинстве своем эксплуатирующие подразделения из периода в период, готовят данные на регулярной основе, не один месяц, а то и год, и даже не задаются вопросом, а вообще сколько бизнес-пользователей у этих данных и как часто они используются. Тема оптимизации хранилищ — это мне кажется вообще отдельная тема. В общем самое первое подразделение, которое требует тщательного анализа — это IT.

И если вы хотели бы заглянуть в такое будущее, но не знаете с чего начать, то велкам в ЛС, поможем разработать вам стратегию по работе с данными и поможем как может выглядеть ваш data-driven бизнес.

Удачи вам и будьте успешны!

Скоринг резюме (HR-аналитика)

0

Сегодня хочу рассказать интересный кейс, который мы делали для одного из HR-подразделения. Он релевантен для любой компании с большой кадровой ротацией (это ритейл, это кол-центры и др. массовые вакансии).

Такие компании достаточно динамичны и очень часто перед ними встает вопрос, как набрать достаточно большой штат за короткий промежуток времени. В целом многие компании уже научились это делать, устраивают массовые интервью, однако нет возможности понять, а на сколько долго сотрудники проработают в штате и на сколько они будут эффективны, ведь не всегда успешное прохождение интервью, гарантирует что сотрудник будет также эффективен в компании. Можно конечно нанять большой штат HR, но это не гарантирует, что они не будут субъективны в своих оценках.

Мы подошли к этой задаче более интеллектуально и решали ее с помощью машинного обучения и автоматического приглашение на интервью с помощью робота.

Нам предстояло решить несколько задач:

  1. Выбрать релевантных кандидатов из большого пула резюме.
  2. Отобрать тех из них которые будут с большой вероятностью успешны
  3. Предсказать срок жизни кандидата в компании
  4. Посчитать срок окупаемости кандидата
  5. Приглашать лучших

Прежде всего мы собрали достаточно большую базу резюме, но нужно было не только собрать но и на основе существующих знаний обогатить эту базу резюме дополнительными метриками, попросту мы занимались Feature Engineering-ом (Генерацией дополнительных переменных), например, из непрерывной переменной о возрасте мы делали дискретную переменную с диапазоном возрастов, из образования, сделали несколько бинарных переменных, например, это юридическое образование или другое, и т.д. В нашей витрине по каждому кандидату стало порядка 60 переменных.

Дальше мы выбрали существующих и ушедших сотрудников (благо ротация достаточно большая) и у нас было много наблюдений как одних, так и других, а также добавили знания об из успешности в компании (конкретные финансовые метрики каждого сотрудника), а также сроки жизни в компании. Ну а дальше дело техники, нам нужно предсказать на основе данных резюме — успешность кандидата и срок его жизни в компании, что уже является задачей машинного обучения.

Посчитать срок окупаемости нам также помогала информация о прогнозном сроке жизни компании, а также о затратах на обучение и адаптацию сотрудников, что уже является обычной детерминированной задачей.

Для автоматического приглашения на собеседование использовался IVR с программируемым скриптом диалога. Таких решений достаточно много, конечно многие слышали о роботе Вера, но на самом деле такие IVR появились задолго до ее появления.

Многие кандидаты даже не догадывались что говорят с роботом и пытались пригласить его на свидание))

Если вам интересно решение такой задачи и собственных ресурсов не хватает, то обращайтесь, поможем.

Эффективных вам решений для бизнеса!

Еще про оптимизацию кол-центра

0

Эффективность работы кол-центра может быть значительно увеличена за счет использования аналитических инструментов.
Что можно делать для увеличения эффективности:
1. Сокращать время простоя операторов (ожидание вызова, попадание на автоответчик).
2. Оптимизировать длительность разговора, что позволит увеличивать количество звонков в единицу времени. Не бойтесь анализировать скрипты и проводить их оптимизацию. Изменяя скрипты, можно получить значительно больше эффект. В первые несколько секунд диалога происходит больше всего дроп-колов, если мы говорим про активный канал продаж, поэтому важно уложить главный смысл звонка в эту первую фразу. Также первые фразы могут быть автоматизированы, если не боитесь экспериментов с голосовым IVR и объем контактов достаточно большой, чтобы выстроить коммуникацию с каждым. Не каждая работа с возражениями достигает нужного эффекта, поэтому иногда важно выделить то, что действительно работает, а что не имеет смысл проговаривать, потому как это не приводит к нужному эффекту.
3. Оптимизировать время на контроль качества диалогов. Иногда работа прослушки достаточно трудоемко, иногда есть жесткие требования к структуре диалога. Ресурсов на прослушку обычно не так много и проводится выборочная прослушка. Но эта работа может быть автоматизирована за счет речевой аналитики. Узнайте как можно упростить работу, вычленяя диалоги которые содержат недопустимый список фраз или нарушают структуру или последовательность скрипта. На основе этой же логики может быть переработан скрипт, так как позволяет найти корреляции между эффективностью звонка и структурой диалога.
4. Увеличивать эффективность звонков за счет сегментации контактов и динамического назначения звонков на наиболее релевантных операторов. Не все операторы одинаково эффективны и не все клиенты одинаковы. Профилирование пользователей под операторов позволит значительно увеличить эффективность работы кол-центра.
Есть и более традиционные подходы в виде рейтинга операторов, изменения системы мотивации, коучинг, карьерная лестница, однако без детальной аналитики такой инструмент будет давать лишь кратковременный эффект и будет приводить к еще большей фрагментации операторов — те кто зарабатывает и те, кто в ближайшее время уйдет (увеличивается текучка).

Внедрение такого аналитического подхода в кол-центре позволит значительно увеличить эффективность работы, минимизирует штат персонала, сократит текучку.
Кого натолкнул на мысть, пожалуйста, кому интересно и готов привлекать экспертов, велкам в ЛС.

Оптимизация работы с поставщиками

0

Продолжаем темы Data Driven Optimization. Поговорим про оптимизацию затрат и управление поставщиками.
Любая закупка генерирует затраты организации и чем лучше компания управляет этим процессом, тем более она эффективна. А я могу вам сказать, что на рынке эта область очень незрелая и с точки зрения обеспечения аналитики сильно отстает от коммерческой функции и это значительная точка роста для вашего бизнеса.

Аналитических кейсов в этой теме с финансовым эффектом очень много, причем как в коммерческих организациях, так и государственных заказчиках.

Давайте рассмотрим несколько кейсов на каждом из этапов:
1. Формирование и оптимизация бюджета закупки – задача определения оптимального объема закупки на основе расходования материалов, на выходе сбалансированный бюджет закупок на N месяцев вперед.
2. Оценка волатильности цены и подбор оптимального сезона для закупки, некоторые товары имеют сезонный спрос. Определение сезонов с наименьшей ценой позволяет здорово оптимизировать затраты.
3. Проверка поставщиков – на аффилированность (явная, неявная — сговор), на надежность (возможности выполнить условия конкурса/потенциальное банкротство, отсутствие претензий со стороны третьих лиц, одновременное участие в большом объеме закупок).
4. Подбор поставщиков также ваша задача, важно сформировать пул надежных поставщиков по каждой номенклатуре закупаемой продукции. И никакого нарушения, если вы просто помимо открытого конкурса, отправляете уведомления еще и по своему списку, гарантируя себе, что закупка точно состоится и вы не потеряете время впустую.
5. Выявление подозрительных конкурсов – нужно проводить регулярный мониторинг подозрительных конкурсов через интегральную оценку по надежности поставщика, цене, длительности, снижении цены от первоначальной, отклоненным заявкам, подозрению на сговор и пр. Тогда настроенные контроли, позволят вам на ранних этапах выявить риски.
6. Контроль над уровнем цен – тут важно по каждой номенклатуре проводить регулярный анализ цен поставщиков на основе открытой информации на сайте, каталогах, или запрашивать предложения с определенной частотой. В этом случае вы будете точно понимать рынок и возможную цену. И тут детальные номенклатуры очень важны, потому как изменение на 1 букву в индексе может привести к увеличению цен в три раза, и вам отгрузят товар с бантиком, который вам не нужен, но задорого.
7. Контроль над объемом закупаемой продукции – вы не допускать затоваривание склада, информируя если объем закупаемых товаров слишком большой (в погоне за минимальной ценой покупается слишком большая партия товаров), либо наоборот объем закупаемой продукции слишком низок (что приводит к дорогой закупке).
8. Контроль над видами закупаемой продукции – ведите реестр товаров заменителей/наличия их на складах/ближайших складах, это позволяет оптимизировать бюджет закупок. Если покупаете технологические товары и услуги, важно отслеживать тренды, все быстро меняется, появляются новые более дешевые технологии, иногда малоизвестные вендоры поставляют более качественные продукты.
9. Объединение закупок между филиалами либо шэринг закупки на паях – самый изящный способ сэкономить, это купить партию, договорившись с кем-то кому нужна такая же продукция.

Далее когда вы купили, потратили деньги, это не значит что уже нужно расслабиться, начинается самое интересное это управление затратами:
1. Вы можете оптимизировать затраты на хранение
2. Можете пересматривать цену если арендуете какой-то ресурс/помещение/пользуетесь услугами. Рынок не стоит на месте и важно проводить работу по мониторингу рынка регулярно, это вам может дать достаточно большую экономию.

Давайте приведу несколько примеров, когда сложно выявить превышение затрат, но можно. Анализируя расходные договора на аренду и покупку ресурсов, я выявлял такие кейсы:
1. Закуплены коммутаторы с количеством портов много больше рынка конкретного региона, это иногда может быть дом, иногда подъезд, а иногда и целый населенный пункт.
2. Закуплены каналы на 50% превышающий нужный объем со скидкой 20% за единицу. То есть вроде бы дешевле на 1 Мбит, но все равно потратили лишних денег, иногда и просто скидку получили, остались в тех же деньгах, хотя могли бы сэкономить. Эксплуатация очень часто перестраховывается и не отслеживает рынок, рынок может быть падающим, а технари планируют развитие.
3. Критичный анализ утилизации ресурсов — вообще проанализируйте чем забиты ваши каналы, я находил и убыточный трафик и технологический трафик, который можно было пускать по дешевому маршруту, но так исторически сложилось.
4. Посмотрите критично на резервирование — я иногда находил такие маршруты, которые по 3 раза зарезервированы было по разным маршрутам.
5. Просто старые договора на аренду, по которым цены снизились на рынке в 3 раза, вроде сумма небольшая поэтому никто не обращает внимание.
6. Использование самого дорогого маршрута для пропуска — вроде бы и канал забит, но переключение трафика на дешевый маршрут и отказ от дорогого приносит дополнительную экономию.
И на самом деле много что еще.

А вы когда-нибудь анализировали прейскуранты Западных IT вендоров — у некоторых они составлены так, чтобы вы никогда в этом не разобрались, а у некоторых содержат более 1000 страниц. А мы в этом очень хорошо разбираемся и знаем как не переплачивать за то, что вам не нужно.

Поверьте если вы проведете эту работу, а по хорошему ее еще и автоматизировать можно, вы получите очень качественный прирост маржинальности и окупите систему к моменту запуска ее в эксплуатацию.

Если вам интересна эта тематика — тогда вам в ЛК или в аутстафинг http://fsecrets.ru/service/

Хотите оставаться в теме самых интересных кейсов применения больших данных, подписывайтесь на telegram-канал https://t.me/fsecrets

Оптимизация обслуживания (QoS)

0

Продолжаем тему оптимизации. Давайте немного поговорим про железо, CEM (клиентский опыт) и QoS (качество сервиса), SLA (соглашение об уровне сервиса), или Fault Management (в общем управление техническими проблемами), ну и много других. В общем сегодня я бы хотел коснуться темы выхода из строя оборудования с одной стороны, либо как экономить на плановых проверках оборудования и какие кейсы оптимизации могут возникать вокруг этих вопросов.
Первый кейс — это прогнозирование выхода из строя оборудования, иногда прогнозируют еще срок дожития оборудования, чтобы встраивать мероприятия по проактивной закупке, доставке оборудования или внеплановом обслуживании. Если есть показатели датчиков и есть корреляция между показателями и выходом из строя оборудования, то конечно такие задачи решаются классическими методами Data Mining (используются 3 класса алгоритмов — классификация для прогнозирования наступления событий, последовательность для выделения паттерна поведения, прогнозирование — для уточнения периода наступления событий), либо если паттерн более четкий с понятной сезонностью (что скорее будет поводом понять почему событие периодически повторяется с заданным интервалом) — то можно обойтись и методами прогнозирования временных рядов. Когда оборудование стоит дешево, задача простая, когда оборудование стоит очень дорого, то задача более комплексная, так как метрики эффективности немного другие, например, как минимизировать простой или когда необходимо инициировать закупку и поставку оборудования или обеспечить резервное оборудование для горячей замены. Иногда сложность задачи заключается в отсутствии какой-либо информации, но не стоит опускать руки, можно начать с простых данных, обогащая их данными планового осмотра оборудования, главное это делать систематически. Также в ход должны обязательно идти все показатели, которые использовались, при детальном разборе инцидентов, если таковые случались. Также предельные уровни заданы в технической документации к оборудованию, их также можно использовать за основу. Иногда необходимо само преобразование показателей с оборудования с помощью специальных устройств.
2. Как экономить на плановых проверках или замене устаревшей инфраструктуры. Сразу хочу сказать, это не панацея от всех бед, но в условиях дефицита бюджета такой подход имеет право на жизнь. Каждый производитель конечно заявляет регламентный срок жизни и рекомендует проводить какие-то профилактические осмотры оборудования, иногда оказывает техническую поддержку. Указывается как правило некий предельный уровень утилизации оборудования и срок жизни. Если вы понимаете, что утилизируете оборудования намного меньше указанных уровней, то конечно вы можете продлить срок жизни оборудования. Можно это сделать, закрыв глаза и махнув рукой, авось итак сойдет, а можно подойти к этому по умному, настроив мониторинг показателей и задав определенные уровни контроля и нотификаций для оперативного реагирования на возможные инциденты. Такой подход позволит увеличить срок жизни, провести проверку только когда есть к этому предпосылки, а когда оборудование работает в штатном режиме — увеличить временной интервал плановых проверок, что позволит экономить деньги на этих работах. При этом конечно можно и просто машине отдать право принимать решения, получив сразу значимую экономию, однако я за поэтапный переход, потому как многие из событий могут быть выловлены на тех данных, что вы не собираете или только при визуальном осмотре. В зависимости от сложности оборудования конечно можно и визуальный осмотр заместить камерой + алгоритмом, уже доказано, что многие подходы к решению задач машинного зрения намного лучше человека выделяют значимые изменения между двумя картинками, и тут нам тоже есть что предложить.
В общем, есть чем поделиться в части реализации подобных кейсов. Кому интересно, добро пожаловать в ЛС.

Удачи и будьте более эффективны!

Вверх
Яндекс.Метрика