[CUIDADO Saiba como prevenir o fracasso em iniciativas de Big Data

Fonte: ComputerWorld



Grandes projetos de Big Data não falham por uma razão única. Uma combinação de fatores normalmente corrompe as implementações de iniciativas que tentam extrair valor dos grandes volumes de dados.
O Gartner aponta que problemas normalmente ocorrem devido a fatores que incluem estratégia, pessoas, cultura, capacidades, falta de atenção aos detalhes de análise ou nuances de ferramentas implementadas, todas agravadas pelo rápido avanço da economia digital.
Svetlana Sicular, diretora de pesquisa da consultoria, avalia que diante de grandes escolhas e novos desafios, os profissionais técnicos muitas vezes se desviam das prioridades fundamentais: encontrar os problemas corretos em soluções de Big Data, questionar as informações e compreender as nuances dos modelos de análise que são aplicados.
“Para ter sucesso, você deve desenvolver uma estratégia viável que entregue valor ao negócio. Em seguida, deve mapear, adquirir ou desenvolver as competências ausentes e especializadas que são necessárias. Uma vez que as prioridades de estratégia e de habilidade são endereçadas, você pode passar para a análise”, ilustra.
Aprender com os erros
Na opinião de Svetlana, talvez, mais importante do que buscar caso de sucessos seria analisar aquelas situações onde os projetos dão errado. “Uma das falhas mais comuns envolve a definição de expectativas excessivamente otimistas quando a equipe envolvida no projeto não está devidamente qualificada”, cita.
A especialista conta que o CEO de uma rede de varejo reconheceu que, para se manter competitiva, sua empresa precisava de um mecanismo de recomendação, como a famosa frase “clientes que compraram isso também compraram...”. O varejista nunca tinha realizado quaisquer projetos de Big Data antes, mas os executivos prometeram ao chefe que o mecanismo seria operacional no prazo de seis meses.
A equipe de TI trabalhou duro para implementar um algoritmo de filtragem colaborativo que geralmente reforça o mecanismo de recomendação, porém enfrentou dificuldades com a dispersão e a escala de grandes conjuntos de dados de itens comprados e histórico de navegação do cliente, bem como o inventário disponível, que foi mudando constantemente, o que exigiu habilidades de aprendizagem adicionais.
Para cumprir o prazo, o time criou um mecanismo de recomendação fictícia de lençóis como produto recomendado, independentemente do que estava sendo comprado. Enquanto não havia nenhum dado analítico real por trás dele, a ação produziu um elevado crescimento de vendas. Foram então necessários dois anos a partir da diretriz do CEO para terem o desenvolvimento de um mecanismo eficaz. Nesse tempo, eles tinham adicionado especialistas comportamentais à equipe, especialistas em pesquisa e engenheiros de operações para estabilizar a grande infraestrutura de dados da empresa.
“Isso demonstra que um fator-chave para o sucesso da implementação de análises de Big Data é a capacidade da organização para construir, crescer e sustentar uma equipe multidisciplinar com a experiência necessária para lidar com os problemas de negócios identificados”, julga.

Compatilhe no Google Plus

Sobre Grimaldo Oliveira

Mestre pela Universidade do Estado da Bahia (UNEB) no Curso de Mestrado Profissional Gestão e Tecnologias Aplicadas à Educação (GESTEC) com o projeto “GESMOODLE – Ferramenta de acompanhamento do aluno de graduação, no ambiente virtual de aprendizagem(MOODLE), no contexto da UNEB“. Possui também Especialização em Análise de Sistemas pela Faculdade Visconde de Cairu e Bacharelado em Estatística pela Universidade Federal da Bahia. Atua profissionalmente como consultor há mais de 15 anos nas áreas de Data Warehouse, Mineração de Dados, Ferramentas de Tomada de Decisão e Estatística. Atualmente é editor do blog BI com Vatapá. Livro: BI COMO DEVE SER - www.bicomodeveser.com.br

0 comentários: