Записи с меткой Инструментарий

Автоматизируем процесс подготовки отчетности

0

Сегодня хотел бы сказать несколько слов о скорости подготовки отчетности. Если ваша отчетность формируется полностью в автоматическом режиме, то, наверное, дальше будет читать не столь интересно, хотя данный опыт может быть полезен и в других областях.

Все мы сталкиваемся в своей работе с большой долей монотонных одинаковых операций, когда получая какие-нить выгрузки из транзакционных систем, нам приходится очень долго обрабатывать информацию, чтобы превратить наконец «сырую» информацию в красивый отчет для менеджмента компании (подставить свое). Самое интересное, что подавляющее большинство специалистов при этом клянут эту часть своей работы, предпочитая не сбор и трансформацию данных, а анализ, поиск новых алгоритмов, т.е. креативную составляющую работы аналитика. Чем дольше приходится решать задачу сбора информации и ее обработки, тем меньше остается времени на ее анализ, поиск «жемчужины» и т.д. Как правило, даже правило Парето отдыхает, потому как до 90% времени уходит именно на сбор информации, проверку ее качества и приведение ее в божеский вид, который уже действительно можно использовать для анализа.

Что интересно, большинство менеджеров не пытаются автоматизировать свою функцию, т.е. они продолжают из месяца в месяц готовить один и тот же отчет, доводя себя до изнеможения. Я хотел бы обратиться к таким горе-аналитикам, вам себя не жалко? Почему нельзя автоматизировать эту часть монотонной работы. Не нужно обладать глубокими знаниями и навыками программирования, чтобы сделать автоматические мэппинги в формате Excel. Для этого, конечно же придется выкроить какое-то время, чтобы один раз его настроить и затем им пользоваться постоянно, экономя значительное время, которое может быть потрачено действительно с пользой.

Давайте вспомним как мы формируем отчетность:

1. Мы дождались, когда информация появится из всех источников. А лучше подождали, когда до конца отчетного срока останется 2-3 дня. Мы же уверенны в собственных силах, нам 2-3 дня на подготовку всей отчетности всегда достаточно. Проверять за собой — это удел неуверенных в себе людей.

2. Мы начинаем делать выгрузки из всех источников, в это время начинаем ругать IT блок, что системы начинают сбоить и что-то у нас не получается. Если все прошло удачно, то у нас на руках наконец оказываются большие простыни данных.

3. Трудностей мы не боимся, теперь нужно перелопатить простыни и скопировать всю необходимую информацию в заранее подготовленный «красивый» шаблон. А так как простыней много и шаблон огромный нам бы неплохо себя перепроверить, но на это нет уже времени. Срок подходит.

4. Так осталось часа 3 рабочего времени и целый вечер впереди, чтобы написать какие-то мысли по поводу всего этого безобразия. 3 часа — ерунда — хватит и получаса, мы же профессионалы, можно и кофейку попить, обсудить планы на вечер, за пол часа до конца рабочего дня пишем отчет, все отчет готов, нажимаем кнопочку «Send», и скорее бежим с работы, а то вдруг шеф что-то захочет уточнить или ему что-то не понравится.

Узнаете? Напишите мне в комментарии, если у вас все выстроено идеально, страна должна знать своих героев. Я могу вам сказать, что этим грешат не только мелкие компании, но и крупные компании с хорошо выстроенными, прописанными бизнес-процессами.

Это конечено сарказм и написано в стиле «как не нужно делать». Что бы я посоветовал вам для того, чтобы сократить время на подгтовку отчетности.

Если бюджета на автоматизацию нет и у нас под рукой только Excel, то подход следующий:

1. Формируем универсальный шаблон, первый лист которого повторяет ваш «красивый» шаблон.

2. Каждый следующий лист должен повторять формат выгрузки из источника, т.е. чтобы выгрузку можно было скопировать один к одному.

3. После этого формируем мэппинг ячеек из выгрузки в ячейки «красивого» шаблона.

Это первый этап. Желательно после этого потестировать, чтобы после копирования данных источников на листы, данные действительно попадали в нужные ячейки «красивого» отчета.

Что касается проверки качества. Используя условное форматирование можно проверять данные на наличие каких-либо выбросов. Либо заранее подготовить еще один лист в шаблоне и на нем организовать проверку качества. Настроить шаблоны графиков, если есть в этом необходимость. Прописать необходимые формулы в ячейках по всем расчетным показателям.

Настроив один раз таким образом шаблон, вам стается вместо монотонного копирования и трансформирования данных каждый месяц, скопировать данные из всех источников и вставить в листы заранее подготовленного шаблона. Перейти на вкладку анализ качества данных и посмотреть на результаты. Остается, один самый ответственный шаг — написать комментарии для руководства.

Могу вас заверить, что у вас появится намного больший интерес к работе, вы будете успевать делать намного больше. Руководство вас от этого начнет ценить еще больше, так как в единицу времени вы сможете успевать делать много больше. Практически все ручные операции, которые повторяются каждый период, можно заменить машинным трудом.

Конечно, есть и минус такого подхода. Если раньше вы были ценны за то, что перелопачивали столько материала, то сейчас за вас это сделает компьютер. Но компьютер никогда не сделает за вас анализ данных и не опишет рекомендации, которые помогут увеличить эффективность предприятия. Так что не стоит бояться автоматизации. Времени на анализ будет больше и выводы ваши будут намного ценнее, чем те, которые были написаны за пол часа до окнчания рабочего времени.

Удачи вам, цените свое время!

Teradata форум 2011

0

Вчера в гостинице Hilton Moscow Ленинградская состоялся первый российский форум компании Taradata. Несмотря на то, что форум по количеству участников был много меньше чем Oracle Day, качество материалов докладчиков, на мой вгляд, было намного выше. Конечно, стоит отметить, что российские докладчики намного проигрывали своим коллегам.
И даже казалось бы такая интересная тема как SNA (social network analysis — анализ социальных сетей, не путать с Facbook-ом, возможно я попозже расскажу что это такое более детально) была преподнесена представителем компании МТС как скучная рутинная работа. Может быть если бы для меня было что-то новым, тогда было бы интересно, а так очень и очень скучный доклад.
Самый, на мой взгляд интересный доклад был у Стивена Бробста — CTO Taradata. Big Data наше все, но это и понятно, что тут основной бизнес Teradata как раз в поиске таких кейсов и помощь в реализации этих идей у заказчиков. Стивен отметил новый тренд и я с ним в этом вопросе полностью согласен, что компании переходят от анализа транзакционных данных к анализу ивентов (event), т.е. поведении клиента еще до момента осуществления танзакции, т.е. покупки. Для меня, как для представителя телекома это не совсем новое. Но в то же время на Западе уже давно идет анализ данных по поведению клиентов до осуществления того или иного действия, анализа его переходов по сайту и т.д. Услышал новый термин Consumer Intelligence, который и характеризует эту деятельность по анализу.

Было несколько совсем необычных примеров, например для фермерских хозяйств, вживление датчиков в коров и сбор статистики о каждом ее перемещении. Датчики от страховых кампаний, которые отслеживают стиль вождения автомобиля и в зависимости от стиля могут предоставлять автомобилистам скидки. Все это возможно благодаря интелликтуальному анализу данных.

Очень интересные доклады были представителей Lufthansa и Coca-Cola. Было представлено большое количество примеров задач, которые они решают аналитически, значительно расширил кругозор.

Представитель банка ВТБ 24 рассказал об использовании банкоматов как канала коммуникации с абонентом. Очень интересный кейс. Но докладчик как всегда самое интересное скомкал и пропустил, сославшись на то, что в зале собраны профессионалы. После его выступления случился интересный момент, который связан с банкоматами. Один журналист сказал, что их банкоматы не только не поздравляют своих абонентов, как указывал докладчик, но и зажовывают деньги, после чего после месяца разбирательств деньги не венули и даже не принесли извинения. Докладчик вышел с честью, обещав лично во всем разобраться. Надеюсь, проблему решили.

Ханс-Петер Мизра (Директор, Бизнес-консалтинг, Телекоммуникации, Teradata) на примерах показал, как можно улучшить коммуникацию с абонентом на сайте, используя его логи посещений, информацию о его друзьях и т.д. Доклад был довольно интересным и содержательным.

В целом хочу отметить, что подобного рода мероприятия позволяют значительно расширить кругозор.

Удачи Вам!    


Oracle Day 2011

0

Вчера удалось посетить Oracle Day 2011, который по традиции состоялся в Москве в отеле Редиссон САС Славянская.

В этом году секции были построены несколько по-другому. Отраслевых секций не было, были по направлениям деятельности. Я пошел на секцию по бизнес-аналитике.

Что могу сказать? Наверное самым запоминающимся были только 2 выступления представителей Oracle, которые действительно хоть как-то были посвящены бизнес-аналитике. Все остальные какие-то банальные выступления интеграторов либо представителей Oracle, которые к бизнес-аналитике имеют такое же отношение как я к балету. Грубое сравнение конечно, но Российская бизнес-аналитика как-то уж совсем блекло была представлена. Такое ощущение, что в России до аналитики-то второго поколения далековато, что уж говорить про аналитику третьего поколения.

Яркий пример, интегратор рассказывает про аналитический инструментарий и использование ритейловой преднастроенной модели. Идет выступление, подводятся итоги- «Мы реализовали 10 отчетов». Классное целеполагание, оказывается для успешности любой аналитической системы достаточно реализовать 10 отчетов. Куда уж говорить о какой-то финансовой оценке инструментария и о тех целях, которые преследовались при внедрении. Уж точно не отчеты реализовать.

Наверное самым разносторонним было выступление Ольги Горчинской, которая рассказала, про бизнес-аналитику будущего. Речь скорее шла про инструментарий. Плохо то, что было очень мало реальных примеров и все какие-то поверхам. Oracle сделал важный шаг с точки зрения визуализации workflow и результатов Data mining-а, договорившись с разработчиками открытого программного подукта R, который так широко известен на Западе. Хорошая новость, это действительно может приблизить Oracle к IBM SPSS. На мой взгляд от этой конкуенции выиграют все пользователи, потому что конкуренция подстегнет обе компании.

Также понравилось выступление Алексея Глаголева, который совместно с директором по развитию Навтек  рассказывали про Location intelligence, или про геоаналитику, пространственная аналитика. Понравились примеры, которые приводились на выступлении Алексея, плохо конечно, что примеры не российские. Ну надеюь и мы сделаем в ближайшем будущем шаг, тем более что примеры использования в России есть, взять хотя бы тех же таксистов, которым исходя из близости от места отправления пассажира приходит сообщения только на конкретные машины.

Про геоаналитику и примеры ее использования я предлагаю поговорить еще в следующий раз, тем более, что тема очень интересная.

 

 Удачи Вам!


Next-Generation analytics — что это?

0

Недавно компания Gartner опубликовала 10 стратегических технологий 2012 года, которые должны оказать влияние на корпорации в ближайшие 3 года, среди которых (не буду переводить, дабы не исказить исконные понятия):
1. Media Tablets
2. Mobile-Centric Applications and Interfaces
3. Contextual and Social User Experience
4. Internet of Things
5. App Stores and Marketplaces
6. Next-Generation Analytics
7. Big Data
8. In-Memory Computing
9. Extreme Low-Energy Servers
10. Cloud Computing

В принципе ничего супер нового нет, да и суть не в том, чтобы забраковать статью или дать подробное разъяснение каждой из технологии. Суть в том, что меня зацепило понятие «Next-Generation Analytics», ну и заинтересовал пункт 3, о котором я думаю можно поговорить в следующий раз, потому как эта тема заслуживает отдельной заметки и для аналитиков может быть очень интересной.

Возвращаемся к NGA. Прямо интрига нарисовалась, чего же все-таки нового такого изобрели? Попытаюсь описать, что они подразумевают под этим понятием.  В общем они говорят о новом образовавшемся тренде в аналитике. Первый был — анализ исторических данных, второй анализ исторических и онлайн данных и предсказание поведения в будущем, и теперь аналитика вступает в третью фазу — комплексный анализ данных не только количественный, но и качественный, причем не только текстовой информации, но и видео, голоса и т.д. При этом тренд направлен на принятие совместных решений. Симуляция, прогнозирование, оптимизация и другой инструментарий для анализа и оптимизации течения каждого бизнес-процесса, в котором может быть задействовано более одного подразделения компании, а не только больше информации для объяснения исторических событий.

В общем-то как всегда ничего нового не происходит, потому как, так или иначе, инструментарий использовался, был доступен, но в то же время, я думаю, появится больше специализированных программных продуктов, которые будут направлены на глубокий анализ каких-то конкретных событий. А маркетологи вендоров зацепятся за этот тренд, чтобы, несомненно, заработать побольше денег.

Надеюсь, конечно, что мы действительно получим интересный инструментарий в течение этих 3-х лет, а не все те же старые продукты в новой упаковке при новом позиционировании.

Удачи Вам, следите за обновлениями в блоге!

 


Геоаналитика и оптимизация затрат

0

Сегодня мне бы хотелось вернуться к теме пространственной аналитики и порассуждать на тему, каким образом ее применение может помочь в оптимизации затрат компаний.

Одной из основных статей затрат — являются затраты на содержание персонала. Как нам может помочь анализ географической информации. Если наша компания сильно распределена географически и при этом средний ФОТ в зависимости от региона варьируется, то этот инструмент поможет нам принимать решения, которые позволят добиться сокращение затрат на фонд оплаты труда. Конечно, нужно понимать, что перераспределение функционала дело нелегкое и делать это нужно аккуратно. Если персонал не привязан к месту, как например дистанционный канал продаж, то размещение, например, кол-центра в месте где зарплаты ниже, позволят добиться экономии без потери качества. Конечно нужно предусмотреть и другие расходы при этом, но наверняка их доля окажется много ниже. Если же персонал, привязан к месту, то к сожалению в таких случаях инструментарий полезен лишь для справочного отражения информации. Если  компания только зарождается и разделяется на несколько видов для большей управляемости, то с помощью инструмента можно оптимальным образом подобрать штаб-квартиру компании.

Расходы на изготовление маркетинговой продукции — если проанализировать себестоимость изготовления в зависимости от географии и решить проблему с логистикой, то наверняка можно добиться существенной экономии по затратам. То же самое справедливо для любой закупаемой продукции.

Если в зависимости от географии налогообложение отличается, то также можно оптимизировать затраты.

Страхование машин — я думаю можно автомобили регистрировать в одном регионе, ездить в другом, в зависимости от региональных коэффициентов можно добиться экономии.

На самом деле способов много больше, достаточно лишь определить привязан ли ресурс к конкретному региону или его можно перенести и проанализировать расходы на единицу ресурса. Я лишь привел несколько примеров. И если у Вас распределенная компания, то присмотритесь к пространственной аналитике.

Удачи Вам!


Вверх
Яндекс.Метрика