Умное импортозамещение

0

Всем привет, сегодня мы поговорим об импортозамещении, тренд, который все больше нарастает и от него никуда не деться.

Согласно Приложению к Приказу Минкомсвязи РФ №96 от 01.04.2015 “Об утверждении плана импортозамещения программного обеспечения” максимальная доля импорта к 2025 году по бизнес-приложениям, куда входят в том числе и BI системы, максимальная доля импортного ПО должна составлять не более 25%, а доля импорта ПО для финансового сектора не превышать 50%.

Цели правительство конечно поставило, но вот как их реализовать, особенно не рассказало.

Конечно, сейчас есть и АРПП (Ассоциация разработчиков программных продуктов) и ЦКИТ (Центр компетенции по импортозамещению), которые проводят достаточно большую работу по формированию политики, однако в организациях вопросов больше, чем ответов. Все компании с государственным участием формируют свою политику, потому что «надо», а не потому что хочется подойти к этому как к возможности оптимизировать бизнес-процессы в IT.

Но на мой взгляд, такой подход не принесет компаниям ничего хорошего, кроме бесконечной головной боли, так как такие новообразования (рабочие группы или новые обязанности) в компаниях формируются достаточно стихийно, и по большому счету они сделаны для того, чтобы показать деятельность и отчитаться, что вот все создано, работа идет, формируем планы. Время идет, а четкой политики в компании как не было так и нет, что с этим делать, как переводить все это безобразие на отечественный софт или на open source, что еще хуже, не очень-то и понятно. А прежде всего, а где взять деньги на этот банкет.

Мы со своей стороны готовы предложить методику, которая позволяет компании оценить окупаемость перевода на отечественный софт как проект с финансовой отдачей и тем самым обосновав и получив дополнительное value от такого перехода.

Если говорить про системы класса BI и Advanced Analytics, то такой подход можно описать следующим образом.

Подходы к миграции

  1. Приоритезация бизнес областей (критичные для бизнеса, редко используемые, неиспользуемые)
  2. Дублирование отчетности на новой платформе (критичные и редко используемые отчеты)
  3. Повторение workflow по моделирование (для Advanced Analytics)
  4. Выявление проблем неиспользуемых бизнес-областей и подготовка roadmap по реанимации (если возможно)
  5. Демонстрация отчетов бизнес-заказчикам
  6. Тестирование отчетов бизнес-заказчиками и анкетирование по удовлетворенности
  7. Разработка плана перехода и отказа от предыдущего инструментария (в случае успешного окончания этапа 6)
  8. Для оптимизации стоимости владения на этапе миграции, можно договориться с вендором об отсрочке платежей по новым лицензиям до миграции отчетов на новую систему. Внедрение не должно приводить или должно приводить к минимальному временному повышению стоимости владения (дублирование платежей).

Подход к финансовой оценке миграции

Показатели:

  1. Стоимость владения данными (TCD) – финансовая оценка на сопровождение хранилища данных
  2. Затраты на центры компетенций (FOT) – фонд оплаты труда на сопровождение платформ бизнес-аналитики
  3. Стоимость технической поддержки (TSC) – затраты на техническую поддержку платформ вендорами и интеграторами (лицензия + работы по сопровождению)
  4. Стоимость внедрения новой системы (NEWIMPLCOST)-лицензии + консалтинг
  5. Стоимость лицензий для решение перспективных задач (PLC)
  6. Стоимость консалтинга по решению перспективных задач (PCC)
  7. Текущий финансовый результат от использования данных (DataValue)
  8. Перспективный финансовый результат (PDV) от решения новых задач

Метрики эффективности:

  1. Удельная ценность данных = Финансовый результат/Стоимость владения.
  2. Оценка срока окупаемости = NEWIMPLCOST/(( DataValuenew+PDVnew-TCDnew-FOTnew-TSCnew-PLCnew-PCCnew) — (DataValueold+PDVold-TCDold-FOTold-TSCold-PLCold-PCCold)).
  3. ROI (возврат инвестиций) = ((DataValuenew+PDVnew-TCDnew-FOTnew-TSCnew-PLCnew-PCCnew— NEWIMPLCOST)/ (DataValueold+PDVold-TCDold-FOTold-TSCold-PLCold-PCCold)-1)*100%.

Инвестиция считается удачной, если ROI > 100% за рассматриваемый интервал планирования (например 5 лет, т.е. за этот период инвестиция должна удвоиться)

  • Внедрение считается успешным, если удовлетворенность бизнес-заказчиков выросла по отношению к текущему инструментарию, для чего перед началом миграции работ должно быть проведено анкетирование бизнес-пользователей.
  • Полнота решения задач на новой системе должна быть не ниже текущих систем.

Это небольшое описание умного подхода по импортозамещению. Поэтому, если у вас стоит задача по импортозамещению, а вы это больше рассматриваете как дополнительную нагрузку, а не как возможность, обращайтесь к нам, мы вам поможем по новому взглянуть на ситуацию, проведем аудит, интервью бизнес заказчиков и определим перспективные возможности по оптимизации стоимости владения и получения дополнительного эффекта для вашего бизнеса, основанного на данных!

Анонс data360.ru

0

Добрый день, уважаемые читатели, наконец настал важный день, мы долго к этому шли, и наконец запустили новый сайт компании «Аналитика». 

Чем мы будем заниматься?

Прежде всего, мы будем находить новые инсайты для наших Заказчиков и оптимизировать процессы, извлекая пользу из накопленного массива информации. На страницах блога, я рассказываю о нашем опыте решения задач для наших Заказчиков. Поэтому все, что вы здесь читаете, так или иначе связано с нашим опытом.

Как мы к этому пришли? У нас накоплен достаточно большой опыт решения практических задач и оптимизации для разных бизнес процессов и разных Заказчиков. Этот опыт трансформировался в большой прирост эффективности — совокупный эффект от инициатив, реализованных на наших предложений уже перевалил за 1 млрд. руб. и продолжает расти.

Поэтому если вы заинтересованы в оптимизации бизнеса, то мы готовы вам помочь и рады будем видеть вас среди наших Заказчиков.


Стадии зрелости по работе с данными

0

Сегодня хотел бы поговорить о стадии зрелости по работе с данными любой коммерческой организации. В 2016 году компания EMC опубликовала материал, который был посвящен этому вопросу, я немного перерисовал его и перевел и хочу поделиться с вами этим материалом.

Самая начальная стадия по работе с данными — это накопление и анализ исторических данных. Тут мы больше погружаемся в то, что уже прошло и пытаемся объяснить поведение компании, анализируя события которые происходили в прошлом на основе фактов.

Вторая стадия — это поиск бизнес инсайтов. То есть мы не только анализируем, но и пытаемся понять какие-то закономерности, возможно скрытые факторы, которые не видны в трендах, но могут проявиться даже в будущем, например, если мы видим что какой-то тренд негативных событий нарастает и доля его постоянно увеличивается, несмотря на то, что он никак не проявляется на текущий момент.

Третья стадия — Оптимизация бизнеса — мы находим какие-то оптимальные факторы при которых компания показывает постоянный рост, еще лучше если мы этими факторами можем управлять и увеличивать наше воздействие с целью роста показателей.

Четвертая стадия — мы накопили множество информации и понимаем, что эта информация может быть не только полезна нам внутри, но может быть полезна другим контрагентам, которые на ее основе смогут получать лучшие результаты и готовы платить за эту информацию. Например, телеком операторы достаточно успешно продают информацию банкам о подтверждении анкетных данных по месту проживания, или о том как перемещаются потоки жителей, чтобы планировать инфраструктуру, например эта информация интересна ритейлу, или городским властям для планирования транспортной инфраструктуры. Вообще тема монетизации заслуживает отдельных постов, и может даже не одного. Поделюсь чуть позже этой информацией. А кому не терпится и уже сейчас готовы в это инвестировать, велкам в личку, поможем сформировать стратегию монетизации ваших данных.

Ну и наконец пятая стадия, это стадия трансформация бизнеса. Здесь речь не идет о каком-то конкретном подразделении, здесь речь идет о комплексном подходе, где каждый процесс так или иначе связан с данными, неважно какая это функция внутри организации. Любой процесс формируется таким образом, чтобы он был измеримым, любой продукт при запуске формируется таким образом и интегрируется в процессы, чтобы каждый этап процесса был измеримым и данные по нему могут быть легко получены. В каждом подразделении есть люди, которые работают с данными и улучшают бизнес. Но тут надо учесть один момент, это не про то, что мы запустили продукт, а потом думаем а как же посчитать по нему воронку, даже если это удается сделать, это вообще не об этом, это про то, что вы изначально в свои процессы при валидации продукта разрабатываете стратегию работы с данными и предъявляете требования к нему исходя из необходимости мониторинга, как если бы вы согласовывали с юристами доп. соглашение, ровно про это.

Вы изначально продумываете до мелочей какие данные и для чего будете использовать, а не так, что да ладно давайте накопим, а потом подумаем что с этим сделать, нет, нет и еще раз нет, на этой стадии у вас есть четкая стратегия работы с данными, вы знаете для чего каждый показатель, четко понимаете его методику и понимаете в каком виде он вам нужен, в сыром или агрегированном, а также можете оценить через какое время вам нужно модифицировать инфраструктуру не вдаваясь в пространные рассуждения, ну если нам будет нужно мы расширимся.

Самое интересное мое наблюдение в крупных компаниях, что IT подразделения не знают какие данные в хранилище и для чего они нужны бизнесу. А самое интересное — это то, что в большинстве своем эксплуатирующие подразделения из периода в период, готовят данные на регулярной основе, не один месяц, а то и год, и даже не задаются вопросом, а вообще сколько бизнес-пользователей у этих данных и как часто они используются. Тема оптимизации хранилищ — это мне кажется вообще отдельная тема. В общем самое первое подразделение, которое требует тщательного анализа — это IT.

И если вы хотели бы заглянуть в такое будущее, но не знаете с чего начать, то велкам в ЛС, поможем разработать вам стратегию по работе с данными и поможем как может выглядеть ваш data-driven бизнес.

Удачи вам и будьте успешны!

Скоринг резюме (HR-аналитика)

0

Сегодня хочу рассказать интересный кейс, который мы делали для одного из HR-подразделения. Он релевантен для любой компании с большой кадровой ротацией (это ритейл, это кол-центры и др. массовые вакансии).

Такие компании достаточно динамичны и очень часто перед ними встает вопрос, как набрать достаточно большой штат за короткий промежуток времени. В целом многие компании уже научились это делать, устраивают массовые интервью, однако нет возможности понять, а на сколько долго сотрудники проработают в штате и на сколько они будут эффективны, ведь не всегда успешное прохождение интервью, гарантирует что сотрудник будет также эффективен в компании. Можно конечно нанять большой штат HR, но это не гарантирует, что они не будут субъективны в своих оценках.

Мы подошли к этой задаче более интеллектуально и решали ее с помощью машинного обучения и автоматического приглашение на интервью с помощью робота.

Нам предстояло решить несколько задач:

  1. Выбрать релевантных кандидатов из большого пула резюме.
  2. Отобрать тех из них которые будут с большой вероятностью успешны
  3. Предсказать срок жизни кандидата в компании
  4. Посчитать срок окупаемости кандидата
  5. Приглашать лучших

Прежде всего мы собрали достаточно большую базу резюме, но нужно было не только собрать но и на основе существующих знаний обогатить эту базу резюме дополнительными метриками, попросту мы занимались Feature Engineering-ом (Генерацией дополнительных переменных), например, из непрерывной переменной о возрасте мы делали дискретную переменную с диапазоном возрастов, из образования, сделали несколько бинарных переменных, например, это юридическое образование или другое, и т.д. В нашей витрине по каждому кандидату стало порядка 60 переменных.

Дальше мы выбрали существующих и ушедших сотрудников (благо ротация достаточно большая) и у нас было много наблюдений как одних, так и других, а также добавили знания об из успешности в компании (конкретные финансовые метрики каждого сотрудника), а также сроки жизни в компании. Ну а дальше дело техники, нам нужно предсказать на основе данных резюме — успешность кандидата и срок его жизни в компании, что уже является задачей машинного обучения.

Посчитать срок окупаемости нам также помогала информация о прогнозном сроке жизни компании, а также о затратах на обучение и адаптацию сотрудников, что уже является обычной детерминированной задачей.

Для автоматического приглашения на собеседование использовался IVR с программируемым скриптом диалога. Таких решений достаточно много, конечно многие слышали о роботе Вера, но на самом деле такие IVR появились задолго до ее появления.

Многие кандидаты даже не догадывались что говорят с роботом и пытались пригласить его на свидание))

Если вам интересно решение такой задачи и собственных ресурсов не хватает, то обращайтесь, поможем.

Эффективных вам решений для бизнеса!

Еще про оптимизацию кол-центра

0

Эффективность работы кол-центра может быть значительно увеличена за счет использования аналитических инструментов.
Что можно делать для увеличения эффективности:
1. Сокращать время простоя операторов (ожидание вызова, попадание на автоответчик).
2. Оптимизировать длительность разговора, что позволит увеличивать количество звонков в единицу времени. Не бойтесь анализировать скрипты и проводить их оптимизацию. Изменяя скрипты, можно получить значительно больше эффект. В первые несколько секунд диалога происходит больше всего дроп-колов, если мы говорим про активный канал продаж, поэтому важно уложить главный смысл звонка в эту первую фразу. Также первые фразы могут быть автоматизированы, если не боитесь экспериментов с голосовым IVR и объем контактов достаточно большой, чтобы выстроить коммуникацию с каждым. Не каждая работа с возражениями достигает нужного эффекта, поэтому иногда важно выделить то, что действительно работает, а что не имеет смысл проговаривать, потому как это не приводит к нужному эффекту.
3. Оптимизировать время на контроль качества диалогов. Иногда работа прослушки достаточно трудоемко, иногда есть жесткие требования к структуре диалога. Ресурсов на прослушку обычно не так много и проводится выборочная прослушка. Но эта работа может быть автоматизирована за счет речевой аналитики. Узнайте как можно упростить работу, вычленяя диалоги которые содержат недопустимый список фраз или нарушают структуру или последовательность скрипта. На основе этой же логики может быть переработан скрипт, так как позволяет найти корреляции между эффективностью звонка и структурой диалога.
4. Увеличивать эффективность звонков за счет сегментации контактов и динамического назначения звонков на наиболее релевантных операторов. Не все операторы одинаково эффективны и не все клиенты одинаковы. Профилирование пользователей под операторов позволит значительно увеличить эффективность работы кол-центра.
Есть и более традиционные подходы в виде рейтинга операторов, изменения системы мотивации, коучинг, карьерная лестница, однако без детальной аналитики такой инструмент будет давать лишь кратковременный эффект и будет приводить к еще большей фрагментации операторов — те кто зарабатывает и те, кто в ближайшее время уйдет (увеличивается текучка).

Внедрение такого аналитического подхода в кол-центре позволит значительно увеличить эффективность работы, минимизирует штат персонала, сократит текучку.
Кого натолкнул на мысть, пожалуйста, кому интересно и готов привлекать экспертов, велкам в ЛС.

Вверх
Яндекс.Метрика