Business Intelligence

Копим данные — сколько вешать в граммах?

0

Очень часто я слышу, что данных нет, либо их всегда не достаточно, чтобы сделать какую-то более-менее приличную аналитику по какой-то проблеме. Сегодня мне хотелось бы поговорить на тему, а сколько это достаточно.

Аналитикам всегда мало, чем больше данных, тем лучше. Даже если данные используются раз в квартал, а то и реже, все равно данные нужны в самом максимальном разрезе и они начинают собираться. При этом аналитики, даже грамотные, иногда грешат этим. Они, досконально изучающие все на свете тенденции и делая выводы на данных, часто забывают задуматься, а сколько ресурсов компании они отъедают. Эти ресурсы могут быть потрачены с большей пользой, чем просто для хранения какой-то информации, которая будет пылиться на дисках и возможно даже не разу в будущем не будет использована.
Подумайте как часто вы собираете информацию, которая никем не используется. Проведите ревизию задач и актуализацию данных. Если данные не используются, подумайте нужно ли тратить ресурсы на сбор этих данных или достаточно собирать данные в меньшей детализации.
Нужно ли хранить детальную историю или можно оптимизировать хранение данных более верхнеуровневого порядка без деления на секунды, минуты, часы, дни, если вы собираете похожую информацию.
Наверняка процентов 20% из всего собираемого массива данных вы используете регулярно, процентов 30, значительно реже чем 1 раз в месяц, а остальные 50% может быть использовали один раз, а сейчас они просто хранятся и продолжают накапливаться просто на «всякий случай». Не лучший подход к использованию ресурсов.
Удачи вам, будьте эффективны не только в решение бизнес-задач, но и со сбором данных.

Open Source платформы

0

Интересно, что задумываясь над эффективностью внедрения того или иного решения, мы стараемся просчитать его окупаемость, думая, что непременно должны потратить на лицензии какое-то количество денег, конечно иногда стоимость лицензий теряется в стоимости работ и соответственно мы не думаем о стоимости ПО, как о каком-то вселенском зле, которое наносит ущерб предприятию.

В то же время, в период кризиса, восприятие этих расходов очень сильно увеличилось. И уже многие компании, иногда даже очень крупные компании, которые могут позволить себе и промышленное решение очень серьезно рассматривают open source платформы.

Правда стоит отметить, что если раньше open source не иначе как некая студенческая разработка не воспринималась, то сейчас такие решения стали более качественными, на их основе создаются достаточно классные решения.

Единственным минусом выбора платформ такого класса я бы отметил отсутствие тех. поддержки и дефицит ресурсов на рынке. Но если вы нашли или вырастили специалистов такого класса, то их непременно нужно удерживать и поощрять развитие направления. Конечно, если их стоимость начинает переваливать за тех. поддержку промышленного решения, то конечно нужно призадуматься, но в остальном такая бизнес-модель более состоятельная с точки зрения окупаемости. Ресурсный риск выше, но зато и финансовый эффект выше.

Одним из примеров подобных решений является язык R, который в настоящее время многими ведущими вендорами взят на вооружение и даже на их основе создана промышленная сборка. Например, компания Oracle на базе R доработала свой Data miner, который по интерфейсу очень сильно уступал остальным решениям.

Платформы BI с открытым кодом также существуют. Поэтому если у вас нет денег на промышленное решение, но при этом у вас есть желание развиваться в этом направлении, возможно это будет лучшим решением, чем продолжать работать в Excel и лопатить мегатонны табличек, чтобы получить желаемый показатель, который из BI может быть получен несколькими кликами мышки.

Удачи вам!

Автоматизация запуска маркетинговых кампаний

0

Современный бизнес, особенно на высококонкурентных рынках требует быстрой реакции на поведение клиентов, на поведение конкурентов и в этой связи очень часто решаются задачи по автоматизации запуска маркетинговых кампаний. На конкурентных рынках показатель Time to market (время выхода предложения) очень критичен и в этой связи компании стремятся автоматизировать цикл запуска кампаний.

Сегодня я проведу краткий обзор возможностей решений, так как сейчас решаю аналогичную задачу. Возможно, мое мнение покажется вам интересным и вы сможете более взвешенно подойти к выбору поставщика решений.

Современные системы позволяют автоматизировать следующие блоки:

1. Организация workflow по согласованию кампаний. Если в вашей компании решения по запуску принимаются и делаются одним блоком, то наверное данный функционал может вам показаться не столь интересным.

2. Ведение маркетингового плана кампаний. Возможность задания нескольких блоков маркетинговых активностей, запланировать бюджеты на кампании, поддерживает мониторинг и корректировку. Если у вас не столь много кампаний и направлены они на один сегмент, то скорее всего этот модуль вам не интересен, но если ваш план маркетинга изобилует отдельными блоками, тогда в наглядной форме инструментарий позволяет отслеживать все эти активности, в т.ч. проводить мониторинг их выполнения.

3. Выстраивать контактную политику с вашими клиентами. Если у вас всего один канал и один сегмент клиентов, то при выборе решения не стоит обращать внимание на присутствие или отсутствие данного модуля, так как скорее всего для вас он ценности не представит, но если у вас 2 и более каналалов коммуникаций, имеющих ограничения, например либо по емкости либо по бюджету, который вы на него можете потратить в единицу времени, то данный модуль вам жизненно необходим.

3. Бибилиотека кампаний. Очень часто в распределенных системах играет важную роль, так как позволяет накапливать лучший опыт проведения кампаний, транслировать на другие регионы, используя готовые шаблоны, с модификацией по сегменту.

4. Библиотека предложений. Если их не так много, то ее отсутствие вам вероятно не помеха.

5. Модули по заданию шаблонов коммуникаций. Интерфейс, позволяющий, например, настраивать шаблоны SMS сообщений, e-mail сообщений и т.д.

6. Сегментация базы и работа с внешними списками. Тут нужно обращать внимание на возможности системы, так как иногда система может работать только с преднастроенными списками, а есть системы, которые позволяют модифицировать сегмент, что называется на лету.

7. Разбиение на контрольную и целевую группу. Несмотря на огромное количество литературы по этому вопросу, решение данной задачи не столь тривиально, хотя имеет огромное значение при оценке эффективности кампаний. Я бы сказал, что ряд систем имеют огромные проблемы с решением этой задачи.

8. Оценка эффективности и встроенная аналитика. Несмотря на то, что это не совсем задача системы по управлению маркетинговыми кампаниями, ряд систем имеют встроенные отчеты по кампаниям, что позволяет сократить время на их разработку. Я отношу этот пункт к некритичным, так как это легко подменяется возможностями BI-системы, если она у вас есть.

Вот пожалуй на эти пункты нужно обращать внимание в первую очередь. Определить критичные из них и выбирать решения исходя из них.

Изучая возможности отдельных систем, я бы разделили их все на 2 класса: чистые системы по управлению маркетинговыми кампаниями, такие как например, SAS CM, IBM Unica и околоcrmные решения, примеры — SAP, Oracle. Они отличаются подходом при внедрении, а также имеют некоторые различия с точки зрения описанных мною пунктов.

Универсального совета, что выбрать, не существует. Есть преимущества и недостатки в обоих решениях. Если вы столкнулись с решением подобной задачи и не знаете с какой стороны подходить, напишите мне, возможно, я вам помогу.

Удачи вам! Оставайтесь на связи.

PS Стал писать реже, потому как раз занимаюсь доскональным изучением систем подобного класса, времени катострофически не хватает.

Data quality — качество данных

0

Сегодня мне бы хотелось поговорить о самой большой проблеме всех внедрений BI — о проблеме качества данных. Особо острой проблема является в тех случаях, когда существует более чем один источник данных. Например, в British Telecom сейчас более 200 биллинговых систем. И несомненно, когда приходится считать какой-либо составной показатель из нескольких источников или выбирать показатель из множества конкурирующих источников (источники, которые содержат один и тот показатель), в этом случае мы всегда сталкиваемся с решением задачи обеспечения качества данных.

Недавно я встречался с Вице-Президентом Oracle по BI — Полом Родвиком и задал вопрос о подходах, которыми пользуются компании во время внедрения. О двух из них я несомненно слышал, но третий меня слегка удивил, хотя он имеет право на существование.

В настоящее время есть несколько принципов решения проблем:

1. «Глубокое решение» — подход, при котором создается единый источник, который является мастер-источником для всех остальных систем, т.е. идет двухсторонняя интеграция. Т.е. изменяя данные или справочники в мастер-источнике, данные меняются в остальных источниках автоматически. Пожалуй самый дорогостоящий подход, но при этом самый, наверное, правильный. Несомненно, если у Вас более 10-ка разных источников со своей нормативно-справочной информацией по каждому из них, и Вы собрались создать мастер-источник с нуля, приготовьтесь раскошелится.

2. Аналитический подход — односторонняя интеграция — справочники поддерживаются аналитически на уровне хранилища в BI-системе. Там же решается приоретизация конкурирующих источников. Гораздо дешевле во внедрении, немножко сложнее поддерживать. Все-таки с источников могут прийти любые данные, могут появиться новые источники, соответственно приходится постоянно решать эту задачу.

3. Не решать задачу вообще. Я был немного удивлен этим заявлением Пола. На что он заметил: «Для некоторых отраслей гораздо важнее иметь хоть какие-то данные, чем не иметь их вовсе». Конечно, применительно к телекому, банкам или ритейлам такой подход вряд ли возможен, хотя по некоторым типам данных, возможно. Но все же он имеет право на существование.

Вообще говоря, прежде чем использовать данные, необходимо решить вопрос о качестве данных. В противном случае, в том случае если данные недостоверные, своим решением можно нанести ущерб предприятию, нежели пользу.

Я при выборе подхода руководствуюсь финансовой составляющей. Какой эффект дает улучшение качества данных? Если погрешность в данных достаточно низка, при этом данные используются не для формирования официальной раскрываемой информации, а всего лишь для проведения аналитических выкладок или проверки каких-либо гипотез, стоит ли улучшать качество этих данных, если улучшение не принесет никакой дополнительной ценности для компании? Вопрос, конечно, больше риторический, ситуации бывают разные.

А какими способами пользуетесь Вы при выборе источника данных и как контролируете качество?

Удачи Вам!

Teradata форум 2011

0

Вчера в гостинице Hilton Moscow Ленинградская состоялся первый российский форум компании Taradata. Несмотря на то, что форум по количеству участников был много меньше чем Oracle Day, качество материалов докладчиков, на мой вгляд, было намного выше. Конечно, стоит отметить, что российские докладчики намного проигрывали своим коллегам.
И даже казалось бы такая интересная тема как SNA (social network analysis — анализ социальных сетей, не путать с Facbook-ом, возможно я попозже расскажу что это такое более детально) была преподнесена представителем компании МТС как скучная рутинная работа. Может быть если бы для меня было что-то новым, тогда было бы интересно, а так очень и очень скучный доклад.
Самый, на мой взгляд интересный доклад был у Стивена Бробста — CTO Taradata. Big Data наше все, но это и понятно, что тут основной бизнес Teradata как раз в поиске таких кейсов и помощь в реализации этих идей у заказчиков. Стивен отметил новый тренд и я с ним в этом вопросе полностью согласен, что компании переходят от анализа транзакционных данных к анализу ивентов (event), т.е. поведении клиента еще до момента осуществления танзакции, т.е. покупки. Для меня, как для представителя телекома это не совсем новое. Но в то же время на Западе уже давно идет анализ данных по поведению клиентов до осуществления того или иного действия, анализа его переходов по сайту и т.д. Услышал новый термин Consumer Intelligence, который и характеризует эту деятельность по анализу.

Было несколько совсем необычных примеров, например для фермерских хозяйств, вживление датчиков в коров и сбор статистики о каждом ее перемещении. Датчики от страховых кампаний, которые отслеживают стиль вождения автомобиля и в зависимости от стиля могут предоставлять автомобилистам скидки. Все это возможно благодаря интелликтуальному анализу данных.

Очень интересные доклады были представителей Lufthansa и Coca-Cola. Было представлено большое количество примеров задач, которые они решают аналитически, значительно расширил кругозор.

Представитель банка ВТБ 24 рассказал об использовании банкоматов как канала коммуникации с абонентом. Очень интересный кейс. Но докладчик как всегда самое интересное скомкал и пропустил, сославшись на то, что в зале собраны профессионалы. После его выступления случился интересный момент, который связан с банкоматами. Один журналист сказал, что их банкоматы не только не поздравляют своих абонентов, как указывал докладчик, но и зажовывают деньги, после чего после месяца разбирательств деньги не венули и даже не принесли извинения. Докладчик вышел с честью, обещав лично во всем разобраться. Надеюсь, проблему решили.

Ханс-Петер Мизра (Директор, Бизнес-консалтинг, Телекоммуникации, Teradata) на примерах показал, как можно улучшить коммуникацию с абонентом на сайте, используя его логи посещений, информацию о его друзьях и т.д. Доклад был довольно интересным и содержательным.

В целом хочу отметить, что подобного рода мероприятия позволяют значительно расширить кругозор.

Удачи Вам!    


Вверх