Todos os dias, cerca de 15 petabytes de dados estruturados e não-estruturados são gerados, segundo projeções da IBM. Essa montanha de informações inclui mensagens trocadas a partir de dispositivos móveis, e-mails, fotos, vídeos, compras pela web, planilhas, textos, vídeos e outros. Para colocar em perspectiva, com apenas um petabyte, segundo cálculos de mercado, é possível armazenar mais de 114 mil horas de vídeo em HD, o mesmo que mais de 13 anos de programação contínua. Esse tsunami é uma grande oportunidade para o mundo corporativo, e representa desafio sem precedentes para a indústria da Tecnologia da Informação (TI), que aposta na oferta de ferramentas que ajudem as empresas a filtrar e modelar informações úteis para os negócios.
Companhias estão diante de uma mina de ouro e começam agora a entender como forjar inteligência de negócios a partir dessa matéria-prima. É a era do Big Data que, segundo especialistas, bate à porta e deve ganhar impulso nos próximos anos, turbinada pelo crescimento do poder computacional e do surgimento de novas fontes geradoras de informação, como as redes sociais e a comunicação máquina a máquina (M2M).
Big Data, no entanto, não se refere ao mero armazenamento de grandes volumes de dados. Volume + variedade + velocidade de geração de dados são os elementos que compõe o Big Data. O valor do conceito está na possibilidade de localizar, peneirar e analisar informações úteis a partir de diferentes fontes e em tempo real. Diferentemente do Business Intelligence (BI), que analisa o passado, a tecnologia prevê tendências futuras, balizando e agilizando as tomadas de decisão imediatas.
A indústria de TI, atenta ao potencial da solução para os negócios, está evoluindo suas ofertas para oferecer ao mercado tecnologias avançadas de Big Data. Ela se apoia em ferramentas analíticas que ajudem as companhias a reter clientes e a criar produtos em linha com seus desejos e necessidades. A proposta ambiciosa do Big Data é ajudar empresas a decidir com base em evidências e analisadas continuamente.
Dados espalhados pela organização, gerados pelos consumidores em mídias sociais ou por dispositivos móveis precisam ser colhidos, garimpados e moldados de acordo com as necessidades de negócios da empresa.
A IBM investiu, nos últimos cinco anos, mais de 14 bilhões de dólares na compra de 24 companhias para reforçar as capacidades analíticas de suas tecnologias. Com a estratégia, batizada de Business Analytics, que inclui Big Data, a Big Blue pretende faturar 16 bilhões de dólares até 2015. “Temos um portfólio abrangente de tecnologias, que vai desde a coleta de dados de diversas fontes, passando por sistemas que analisam essa montanha de dados até o tratamento das informações em tempo real”, explica Cezar Taurion, gerente de Novas Tecnologias Aplicadas da IBM Brasil.
Ele diz que a fabricante também conta com serviços de consultoria e parcerias com universidades para formar talentos em Big Data, os chamamos cientistas de dados (leia mais na página 22). Por aqui, a capacitação para profissionais da área está chegando, mas nos Estados Unidos a empresa tem mais de 100 mil alunos inscritos na Big Data University, diz Taurion.
O executivo acredita que, mesmo com a evolução mais recente da oferta, o mercado ainda se prepara para a chegada do que ele define como “um tsunami”. Mas ao contrário dos efeitos devastadores de um tsunami físico, esse não vem para destruir o que vê pela frente, mas traz uma avalanche de dados que precisam ser aproveitados. “Ele não é muito visível para quem está na costa, mas vem em velocidade rápida até o litoral”, diz Taurion. Ele lembra que as companhias têm de preparar o terreno para Big Data e desenhar estratégias que incluem tecnologia, processos e pessoas.
“Estamos no início dessa era”, afirma. A desorganização ou até mesmo a falha em coletar as informações para analisar são barreiras que devem ser superadas. Taurion diz que a IBM está apostando no conceito de Smarter Storage, que reúne diversas tecnologias, para eliminar esses problemas. A abordagem permite que as companhias economizem até 47% do tempo usado na gestão do sistema, além de reduzir a complexidade em até 30%.
Alguns casos experimentais em Big Data já podem ser observados, informa. Em Cingapura, a IBM implementou um sistema de previsão de congestionamento com sensores que se comunicam com dados históricos e relatos de obras em execução na cidade. Após análise dessa massa, é possível descobrir gargalos no trânsito. “No Rio de Janeiro, o Centro de Operações é capaz de descobrir, com 48 horas de antecedência, pontos potenciais de deslizamento de terra a partir da combinação de milhares de dados do sistema e topografia local”, exemplifica. Aí é que está o grande poder de Big Data, lembra, capturar dados, analisar e tomar decisões.
No mundo atual, diz Patricia Florissi, vice-presidente e diretora de Tecnologia das Américas, Europa, Oriente Médio e África (EMEA) da EMC, repleto de dados, não é mais viável verificar informações do passado e obter insights sobre o futuro manualmente. “É impossível realizar essa tarefa em banco de dados tradicional. Uma empresa não quer mais saber daqui a um mês o que aconteceu há 40 dias”, aponta.
Para ela, que mora nos Estados Unidos há mais de 20 anos, o Brasil apresenta condições econômicas para liderar iniciativas de Big Data em todo mundo. “Vejo o varejo e os bancos como os grandes usuários desse tipo de tecnologia”, destaca. “2013 vai marcar o ano da exploração de Big Data”, acredita. A ideia da microsegmentação de clientes, e não mais o tratamento por grupos, vai atrair a atenção das companhias.
Patricia afirma que há mais de três anos a EMC ingressou no universo de Big Data. “Identificamos que o volume de dados crescia a uma velocidade impressionante e criamos uma estratégia na área”, lembra. A jornada até Big Data incluiu a compra da VMware e Greenplum. Mais recentemente, em dezembro de 2012, juntou-se à VMware para criar a Pivotal Initiative, totalmente voltada para iniciativas de grandes quantidades de dados. “Essa nova divisão, que será uma empresa independente ainda neste ano, terá 1,5 mil pessoas totalmente focadas no tema.”
Segundo ela, a Pivotal tem como meta incentivar as empresas a adotar soluções analíticas. Está nos planos a criação de um ambiente de desenvolvimento, oferta de consultoria em analytics e soluções de infraestrutura. A companhia também participa da comunidade Hadoop, plataforma para análise de dados de código aberto, desenvolvida pela Apache, e quer participar da OpenStack. “Buscamos ser referência global em Big Data”, aponta.
No Brasil, a EMC também está plantando suas sementes. A empresa conta com um laboratório para Big Data no Centro de Pesquisa e Desenvolvimento (P&D) no Rio de Janeiro e está capacitando profissionais para atuar na área, por meio da Escola de Verão de Big Data.
O ferramental de Big Data da EMC inclui a plataforma Greenplum, que proporciona maior entendimento e geração de valor dos dados estruturados e não-estruturados e o Isilon, família de storage para dados não-estruturados, que permite o crescimento da infraestrutura de forma linear tanto para desempenho quanto para capacidade de armazenamento.
Separando o joio do trigo
Para o SAS, Big Data também leva em consideração variabilidade e complexidade. “Por variabilidade entende-se o fato de que a disponibilidade de informações está sujeita a ‘picos periódicos’ e a eventos. Em complexidade, há o desafio de gerenciar os dados, ou seja, integrar fontes de dados, desduplicar informações, atualizar dados e muito mais”, detalha Daniel Hoe, gerente de desenvolvimento de novos negócios do SAS Brasil.
Segundo ele, a estratégia do SAS para Big Data é levar ao mercado soluções de High-Performance Analytics que ajudam as empresas a lidar com quatro questões: gerenciamento da informação, visualização, analytics e opções diversas de implementação de solução, que incluem nuvem e appliances (hardware e software combinados para tarefas específicas).
Hoe acredita que em 2012 o termo Big Data se popularizou e ganhou relevância. “Isso é resultado de um fenômeno que teve impulso na última década: a queda dos preços de armazenamento de dados e a crescente informatização dos processos de negócios”, diz. Para 2013, a expectativa é que as empresas percebam o benefício do uso concreto dessa estratégia e aumentem a adoção de tecnologias de análise, gerenciamento e armazenamento.
Seguradoras, operadoras de telecomunicações e bancos são as indústrias que mais vão apostar na tecnologia, segundo Hoe. Para conquistar o mercado, prossegue, o SAS fechou parceria com os principais fornecedores de bancos de dados de alta performance do mercado, como EMC Greenplum e Teradata para oferecer appliances de alta performance capazes de realizar tarefas de modelagem preditiva, estatística e data mining em memória (divisão de volumes menores de informações entre os processadores disponíveis, reduzindo para um minuto e meio o tempo de análise tradicional em disco que consumiria quatro horas).
Diógenes Santo, arquiteto de soluções da Teradata, destaca que as soluções da empresa são baseadas em SQL MapReduce, um framework desenvolvido pela Aster Data, empresa adquirida pela Teradata em 2011, que possibilita aumentar a capacidade de processamento para estratégias de Big Data, fornecendo insights a partir de fontes multiestruturadas de dados, que auxiliam a identificar tendências e oportunidades de mercado.
Mas o que há de revolucionário nisso? “A tecnologia possibilita acesso a uma gama infinita de novas fontes de dados, que devido à dificuldade de análise, muitas vezes são inexploradas”, responde Santo.
Segundo ele, a Teradata conta com ferramentas de hardware e software para lidar com Big Data. “Estamos no mercado de appliances que executam o Hadoop e Aster Data dentro da mesma infraestrutura e isso é um diferencial. Nosso DNA é fazer análise de dados, por isso estamos à frente no trabalho com Big Data”, assegura.
A Teradata conta com o Aster Big Analytics Appliance, solução unificada para análise de grandes quantidades de dados que reúne, em um appliance, o Aster Analytics e o Hadoop. A solução executa o trabalho de análise em um ambiente multissistema, explica Santo.
Para reforçar a atuação em Big Data, nos últimos anos a Teradata investiu 800 milhões de dólares na aquisição de empresas do setor. Aprimo, Aster Data Systems e eCircle estão na lista de compras. Recentemente, a fabricante também passou a trabalhar em estreita parceria com a Hortonworks, empresa que atua na promoção do desenvolvimento da plataforma Apache Hadoop. “Agora ficou mais fácil desenhar uma solução para Hadoop que é simples de ser utilizada. Assim, complementamos a capacidade analítica de nossas soluções”, assinala o executivo.
Santo diz que em 2012, a busca por Big Data foi mais conceitual. “A frase que mais ouvimos no ano passado foi ‘me explica o que é Big Data’. Foi um movimento inicial e incipiente”, relata. “Em 2013, certamente teremos algumas provas de conceito e clientes no Brasil. Mas somente em 2014 acredito que será, de fato, o ano do Big Data”, opina.
Nova era
Colin Mahony, vice-presidente e gerente-geral da HP Vertica, acredita que, assim como outras transformações da TI no passado – como a chegada do mainframe, a mudança cliente/servidor, e a internet - Big Data cria oportunidades para todo tipo de companhia. “Estudos mostram que para cada dólar gasto com análise é possível obter 20 dólares de retorno”, contabiliza.
O sucesso da iniciativa, no entanto, depende de pensar na estratégia além da tecnologia. “Nunca implemente a tecnologia pela tecnologia. Foque no business case e nos desafios de negócios. Identifique ainda onde a empresa quer chegar com Big Data”, aconselha. “Não pegue carona no hype”, completa.
Para ampliar capacidades de análises em suas ferramentas, a HP comprou em 2011 a Vertica, empresa dedicada ao software de data warehouse e análise de dados de negócios. “Os diferenciais da nossa plataforma, a Vertica Analytics Platform, são velocidade, performance e escalabilidade. Estamos sempre simplificando análises para tornar os trabalhos mais fáceis”, etalha. “Uma das razões pelas quais a HP comprou a Vertica foi para poder olhar para as áreas de segurança, cloud e dados”, completa. “Há poucos fabricantes que podem de verdade dizer que têm um arsenal completo para lidar com Big Data, porque envolve expertise, hardware, software etc. Temos tudo isso”, garante.
No Brasil, Mahony explica que a HP está trabalhando em oportunidades nos setor de óleo e gás, telecomunicações e mídia. A boa notícia das implementações de Big Data, diz ele, é que as empresas não precisam jogar fora o investimento em infraestrutura para suportar o novo cenário. Sistemas legados ainda têm valor e eles podem se integrar com tecnologias atuais de Big Data.
A Oracle também reforçou seu plano para ajudar empresas de diferentes segmentos a obter vantagem competitiva por meio de dados estratégicos. Fábio Elias, diretor de arquitetura de soluções de tecnologia e Big Data da Oracle do Brasil, afirma que em fevereiro a empresa de Larry Ellison iniciou um treinamento com parceiros para que eles promovam tecnologias nessa área. “Também estamos atuando em cooperação com algumas instituições de ensino para trazer soluções aos problemas que vivemos no dia a dia. Um dos desafios é encontrar plataformas para suportar esses projetos de pesquisa”, diz.
De acordo com Elias, o Oracle Big Data Appliance é um dos componentes da solução da fabricante. Big Data, prossegue, tem alguns estágios. O appliance se encaixa no primeiro: o de aquisição da informação. O segundo componente é o banco de dados Oracle. O Oracle Exadata Database Machine, combinação de hardware e software, entra na parte de organização para fazer modelagem e promover inteligência aos dados. A terceira camada é o Oracle Exalytics In-Memory Machine, que tem BI em memória e leva velocidade de análise diante de montanha de informações.
“Trata-se de uma solução de ponta a ponta, já integrada, que facilita e leva simplicidade à implementação. Para se ter uma ideia, em um projeto tradicional de Big Data, uma empresa tem de lidar com 1,8 mil cabos e mais 1,5 mil horas de trabalho. Com nossa solução, pré-construída e pré-configurada, são necessários 48 cabos e cerca 40 horas de trabalho”, compara. “O objetivo é fazer a companhia focar na geração de insights para os negócios e não se preocupar com a instalação.”
Ele conta que grande parte do investimento de 5 bilhões de dólares em pesquisa e desenvolvimento (P&D), aplicado no ano fiscal 2013, que acaba em maio deste ano, vai ser direcionado para iniciativas de Big Data.
“Desenvolvemos diversos conectores para ligar ao Exadata. Todos eles estão habilitados para conversar com bancos de dados tradicionais. Mais de 50% das empresas no Brasil usam banco de dados Oracle e temos conectores prontos para integrar com informações de sistemas que elas já possuem”, destaca.
A Oracle também tem realizado aquisições para reforçar seu potencial analítico, diz. A Endeca, fornecedora de soluções para gestão de dados não-estruturados, web commerce e BI, foi a mais recente.
Elias aponta que, atualmente, a Oracle está em conversas avançadas com cerca de 20 empresas no Brasil para dar início a projetos de Big Data. Indústrias como telecom, bancos, seguradoras e e-commerce estão de olho nas soluções, diz, sem, no entanto, citar nomes.
Big Data está na moda e será um marco na história da TI, sentencia Flavio Bolieiro, vice-presidente para América Latina da MicroStrategy, fornecedora de software de BI. Para ele, entretanto, o desafio ainda está em entender o que há por trás de dados não-estruturados, como as redes sociais e sensores de aparelhos. “As empresas começam a analisar dados do Facebook e Twitter, por exemplo, mas a intenção é mapear o sentimento dos seguidores em relação à marca e não estabelecer estratégias futuras com base em informações”, acredita.
A indústria, prossegue, conta com soluções para enxergar além dos dados estruturados, mas ainda há um longo caminho para esmiuçar os não-estruturados. “Estamos nos movimentando para aprimorar as capacidades de ajudar na compreensão daquilo que vem das redes sociais e de outras fontes não-estruturadas”, conta.
Bolieiro diz que a MicroStrategy lançou no ano passado o Wisdom, aplicação analítica gratuita em nuvem que possibilita a exploração de uma ampla gama de informações demográficas e psicográficas contidas nos perfis do Facebook. “A tendência é que as empresas conquistem um nível de maturidade e analisem dados dos clientes para tirar valor”, observa.
A tecnologia foi usada para monitorar dados durante a campanha presidencial nos Estados Unidos. A análise, que reuniu informações de mais de 3,5 milhões de perfis no Facebook, descobriu, por exemplo, que na cidade de Granite, localizada no Estado de Illinois, 31% dos eleitores que “curtiram” ao menos uma página política an rede social, eram fãs de Mitt Romney.
O jornal norte-americano The Washington Post também empregou o Wisdom para identificar as pessoas com perfil na rede social que “curtem” os principais candidatos republicanos e elaborou um ranking com os livros, músicas e esportes que atraem cada um dos seguidores desses candidatos. “Este ano, vamos lançar dois produtos [Alert e Usher] que vão ao encontro do Big Data para que empresas pensem pró-ativamente nas redes sociais”, conta.
Com essas novidades, Bolieiro diz que a meta é conquistar mais clientes em todo o mundo. Segundo ele, 40% da base de clientes mundiais da MicroStrategy atualmente conta com soluções de Big Data. No Brasil, o número é um pouco menor.
A fabricante também se reestruturou para melhor posicionar a oferta de Big Data e facilitar o acesso de empresas. “Agora atuamos por produtos. Antes era somente por vertical. Contamos ainda com mais de 30 profissionais no Brasil para lidar com o tema”, relata.
O cardápio de Big Data é vasto e tende a crescer cada vez mais. Com a indústria aprimorando tecnologias e conquistando empresas de diferentes segmentos, os negócios têm grandes oportunidades de ganhar competitividade analisando seus dados e seus consumidores. Na cadeia de valor, também ganha o cliente, cada vez mais exigente sobre qualidade e velocidade de oferta.
0 comentários:
Postar um comentário