[TENDÊNCIA] 15 tendências de análise de dados que dominarão 2017



Fonte: CIO



Junto com Social, Mobile e Cloud, Analytics e tecnologias associadas a Big Data ganharam lugar entre os principais disruptores da Era Digital. 2016 viu as tecnologias de Big Data cada vez mais alavancadas para impulsionar a inteligência de negócios. Veja o que 2017 mantém no radar da análise de dados.

John Schroeder, presidente executivo e fundador da MapR Technologies , prevê que as seguintes tendências dominarão dados e Analytics este ano:

1- A inteligência Artificial (IA) está de volta.
Na década de 1960, Ray Solomonoff lançou as bases de uma teoria matemática da IA, introduzindo métodos bayesianos universais para a inferência indutiva e a análise preditiva. Em 1980, a Primeira Conferência Nacional da Associação Americana de Inteligência Artificial (AAAI) foi realizada em Stanford e marcou a aplicação de teorias em software. AI está de volta em discussões mainstream e buzzword guarda-chuva para a inteligência de máquina, aprendizagem de máquina, redes neurais e computação cognitiva.

Por que a AI é uma tendência rejuvenescida? Schroeder aponta para os três Vs usados ​​frequentemente para definir Big Data: Velocidade, Variedade e Volume.

Plataformas que podem processar os três Vs com modelos de processamento modernos e tradicionais, que escalam horizontalmente, fornecem 10-20X eficiência de custo em relação às plataformas tradicionais, diz ele.

O Google documentou como algoritmos simples, executados freqüentemente contra grandes conjuntos de dados, produzem melhores resultados do que outras abordagens usando conjuntos menores.

Schroeder diz que veremos o valor mais alto da aplicação de IA para tarefas repetitivas de alto volume, onde a consistência é mais eficaz do que o ganho da  supervisão intuitiva humana à custa do erro humano e do custo.

2 - Big Data para governança ou vantagem competitiva.
Em 2017, o conflito de governança versus valor de dados será mandatório, diz Schroeder. As empresas têm riqueza de informações sobre seus clientes e parceiros. As principais organizações gerenciarão seus dados entre casos de uso regulamentados e não-regulamentados. Os dados de casos de uso regulamentados exigem governança; qualidade e linhagem para que um órgão regulador possa relatar e rastrear dados através de todas as transformações até à fonte de origem.

Schroeder diz que isto é obrigatório e necessário.

3 - As empresas se concentram em aplicativos orientados a negócios para evitar que as lagoas de dados se tornem pântanos.
Em 2017, as organizações passarão da abordagem de "construa e virão" para uma abordagem de dados orientada a negócios, diz Schroeder.

O mundo de hoje requer capacidades analíticas e operacionais para atender clientes, processar reivindicações e interface para dispositivos em tempo real em um nível individual.

Por exemplo, qualquer site de comércio eletrônico deve fornecer recomendações individualizadas e verificações de preços em tempo real. As organizações de saúde devem processar reivindicações válidas e bloquear reivindicações fraudulentas, combinando análises com sistemas operacionais. As empresas de mídia devem personalizar cada vez mais o conteúdo veiculado por set top boxes. Os fabricantes de automóveis e empresas de compartilhamento de trajeto estão interoperando em escala com carros e motoristas.

Suportar esses casos de uso requer uma plataforma ágil capaz de fornecer processamento analítico e operacional para aumentar o valor de casos de uso adicionais que vão de análise de back office para operações de front office.

Em 2017, diz Schroeder, as organizações empurrarão agressivamente o uso de dados para além de uma abordagem de "perguntas". O objetivo será impulsionar o valor comercial inicial e de longo prazo.

4 - Agilidade de dados separa vencedores e perdedores.
Desenvolvimento de software tornou-se ágil onde DevOps fornece entrega contínua, diz Schroeder. Em 2017, os modelos de processamento e de análise de dados evoluirão para proporcionar um nível de agilidade semelhante à medida em que as organizações percebem que a agilidade dos dados, a capacidade de entender os dados no contexto e de tomarem medidas empresariais é a fonte de vantagem competitiva.

O surgimento de modelos de processamento ágil permitirá que a mesma instância de dados suporte análise de lote, análise interativa, mensagens globais, banco de dados e modelos baseados em arquivos, diz ele. Modelos analíticos mais ágeis também são ativados quando uma única instância de dados pode suportar um conjunto mais amplo de ferramentas. O resultado final é uma plataforma ágil de desenvolvimento e aplicação que suporta a mais ampla gama de modelos analíticos e de processamento.

5 - Blockchain transformando aplicativos de serviços financeiros.
Em 2017, haverá casos de uso seletivos e transformacionais em serviços financeiros que surgem com amplas implicações na forma como os dados são armazenados e as transações processadas, afirma Schroeder.

O Blockchain fornece um ledger global distribuído que altera a maneira como os dados são armazenados e as transações são processadas. É executado em computadores distribuídos em todo o mundo onde as cadeias podem ser visualizadas por qualquer pessoa. As transações são armazenadas em blocos onde cada bloco se refere ao bloco anterior. Esses blocos recebem um carimbo de tempo armazenando os dados são criptografados, de modo que o conteúdo dos blocos não pode ser alterado. Hackers acham que é teoricamente impossível cortar o Blockchain desde que o mundo tenha visão de todo o Blockchain.

Portanto, o Blockchain fornece óbvia eficiência para os consumidores. Por exemplo, os clientes não terão que esperar por essa transação SWIFT ou se preocupar com o impacto de um vazamento de datacenter central. Já para as empresas, Blockchain apresenta uma economia de custos e oportunidades de vantagem competitiva, diz Schroeder.

6 - A aprendizagem mecânica maximiza o impacto dos microserviços.
Este ano, veremos aumento de integração da aprendizagem de máquinas com os microservices, diz Schroeder. Anteriormente, implantações de microserviços  foram focadas em serviços leves e aqueles que incorporam a aprendizagem da máquina têm sido tipicamente limitados a integrações de "dados rápidos", de fluxo contínuo. Em 2017, veremos mudança de desenvolvimento para aplicações que alavanquem Big Data e a incorporação de abordagens de aprendizado de máquina que usem grandes quantidades de dados históricos para entender melhor o contexto de dados de fluxo contínuo.
,

7 - As redes inteligentes levarão ao surgimento de nuvens de dados.
Como as conexões continuam a evoluir graças à Internet  das Coisas e à conectividade máquina a máquina, silos de dados serão substituídos por nuvens de dados.

8 - Análise e aprendizagem de máquina, em tempo real, na borda da rede.
Os dispositivos inteligentes colaborarão e analisarão o que um outro está dizendo, afirma a Hortonworks. Algoritmos de aprendizado de máquina em tempo real dentro de aplicações de dados distribuídos entrarão em jogo - algoritmos que são capazes de auxiliar decisões 'peer-to-peer' em tempo real.

9 - Mais análises preventivas: do pós-evento à análise e ação em tempo real.
Vamos começar a ver um movimento de pós-evento e tempo real para a análise preventiva que pode conduzir as transações em vez de apenas modificá-las ou otimizá-las, diz o pessoal da Hortonworks. Isso terá um impacto transformador na capacidade de um negócio centrado em dados para identificar novos fluxos de receita, economizar custos e melhorar a intimidade de seus clientes.

10 - Ubiquidade de aplicativos de dados conectados.
Para que as empresas tenham sucesso com dados, aplicativos e dados precisam ser conectados através de uma plataforma ou framework. Esta é a base para a moderna aplicação de dados em 2017.

As modernas aplicações de dados são altamente portáteis, contentorizadas e ligadas. Eles substituirão rapidamente o software monolítico, verticalmente integrado.

11 - Os dados serão produto de todos.
Os dados se tornarão um produto com valor para comprar, vender ou perder, dizem os analistas da Hortonworks. Haverá novos caminhos, novos modelos de negócios e novas empresas olhando sobre como monetizar esse ativo.

Já o pessoal da DataStax , que desenvolve e suporta uma versão comercial do banco de dados open source Apache Cassandra NoSQL, prevê:

12- O surgimento do engenheiro de dados.
O termo "cientista de dados" se tornará menos relevante e será substituído por "engenheiros de dados", diz a DataStax.

Os cientistas de dados se concentram em aplicar dados científicos e resultados analíticos a questões críticas de negócios. Engenheiros de dados, por outro lado, vão projetar, construir e gerenciar grandes infraestrutura de dados. Eles se concentrarão na arquitetura e em manter os sistemas funcionando.

13 - Segurança: O crescimento da IoT levará a linhas desfocadas.
O crescimento da IoT tem sido largamente desmarcado, diz DataStax. Com a falta de padrões e uma explosão de dados, não está completamente claro quem será  responsável por garantir o que. Hoje, os ISPs estão em risco, e os veremos adotar um papel principal na conversação da segurança.

14 - Vantagens híbridas, graças a certas aplicações empresariais de nuvem.
Está ficando claro que muitas grandes organizações que construíram seus bancos de dados em plataformas legadas preferem retirar os dentes do que mudar, diz DataStax. As arquiteturas de dados híbridas que abrangem bancos de dados legados, mas permitem que as organizações aproveitem os aplicativos em nuvem, serão um foco importante para essas organizações.

15 - Corte de laços graças às arquiteturas sem servidor.
O pessoal da DataStax acredita que a migração para arquiteturas sem servidor - aplicativos que dependem de aplicativos ou serviços de terceiros na nuvem para gerenciar a lógica e o estado do servidor, ou que são executados em contêineres de computação e são acionadores de eventos. A adoção de arquiteturas sem servidor terá um impacto generalizado sobre como os aplicativos são implantados e gerenciados.
,
,
á o pessoal da Hortonworks, fornecedor de distribuição da Hadoop, dizem que:

7 - As redes inteligentes levarão ao surgimento de nuvens de dados.
Como as conexões continuam a evoluir graças à Internet  das Coisas e à conectividade máquina a máquina, silos de dados serão substituídos por nuvens de dados.


8 - Análise e aprendizagem de máquina, em tempo real, na borda da rede.
Os dispositivos inteligentes colaborarão e analisarão o que um outro está dizendo, afirma a Hortonworks.
Algoritmos de aprendizado de máquina em tempo real dentro de aplicações de dados distribuídos entrarão em jogo - algoritmos que são capazes de auxiliar decisões 'peer-to-peer' em tempo real.

9 - Mais análises preventivas: do pós-evento à análise e ação em tempo real.
Vamos começar a ver um movimento de pós-evento e tempo real para a análise preventiva que pode conduzir as transações em vez de apenas modificá-las ou otimizá-las, diz o pessoal da Hortonworks. Isso terá um impacto transformador na capacidade de um negócio centrado em dados para identificar novos fluxos de receita, economizar custos e melhorar a intimidade de seus clientes.

10 - Ubiquidade de aplicativos de dados conectados.
Para que as empresas tenham sucesso com dados, aplicativos e dados precisam ser conectados através de uma plataforma ou framework. Esta é a base para a moderna aplicação de dados em 2017.
As modernas aplicações de dados são altamente portáteis, contentorizadas e ligadas. Eles substituirão rapidamente o software monolítico, verticalmente integrado.

11 - Os dados serão produto de todos.
Os dados se tornarão um produto com valor para comprar, vender ou perder, dizem os analistas da Hortonworks.
Haverá novos caminhos, novos modelos de negócios e novas empresas olhando sobre como monetizar esse ativo.
Já o pessoal da DataStax , que desenvolve e suporta uma versão comercial do banco de dados open source Apache Cassandra NoSQL, prevê:
12- O surgimento do engenheiro de dados.
O termo "cientista de dados" se tornará menos relevante e será substituído por "engenheiros de dados", diz a DataStax.
 
Os cientistas de dados se concentram em aplicar dados científicos e resultados analíticos a questões críticas de negócios. Engenheiros de dados, por outro lado, vão projetar, construir e gerenciar grandes infraestrutura de dados. Eles se concentrarão na arquitetura e em manter os sistemas funcionando.

13 - Segurança: O crescimento da IoT levará a linhas desfocadas.
O crescimento da IoT tem sido largamente desmarcado, diz DataStax.
Com a falta de padrões e uma explosão de dados, não está completamente claro quem será  responsável por garantir o que. Hoje, os ISPs estão em risco, e os veremos adotar um papel principal na conversação da segurança.

14 - Vantagens híbridas, graças a certas aplicações empresariais de nuvem.
Está ficando claro que muitas grandes organizações que construíram seus bancos de dados em plataformas legadas preferem retirar os dentes do que mudar, diz DataStax. As arquiteturas de dados híbridas que abrangem bancos de dados legados, mas permitem que as organizações aproveitem os aplicativos em nuvem, serão um foco importante para essas organizações.

15 - Corte de laços graças às arquiteturas sem servidor.
O pessoal da DataStax acredita que a migração para arquiteturas sem servidor - aplicativos que dependem de aplicativos ou serviços de terceiros na nuvem para gerenciar a lógica e o estado do servidor, ou que são executados em contêineres de computação e são acionadores de eventos. A adoção de arquiteturas sem servidor terá um impacto generalizado sobre como os aplicativos são implantados e gerenciados.
- See more at: http://cio.com.br/tecnologia/2017/04/18/15-tendencias-de-analise-de-dados-que-dominarao-2017/#sthash.Qcxf9EEw.dpuf
Junto com Social, Mobile e Cloud, Analytics e tecnologias associadas a Big Data ganharam lugar entre os principais disruptores da Era Digital. 2016 viu as tecnologias de Big Data cada vez mais alavancadas para impulsionar a inteligência de negócios. Veja o que 2017 mantém no radar da análise de dados.
John Schroeder, presidente executivo e fundador da MapR Technologies , prevê que as seguintes tendências dominarão dados e Analytics este ano:
1- A inteligência Artificial (IA) está de volta.Na década de 1960, Ray Solomonoff lançou as bases de uma teoria matemática da IA, introduzindo métodos bayesianos universais para a inferência indutiva e a análise preditiva. Em 1980, a Primeira Conferência Nacional da Associação Americana de Inteligência Artificial (AAAI) foi realizada em Stanford e marcou a aplicação de teorias em software. AI está de volta em discussões mainstream e buzzword guarda-chuva para a inteligência de máquina, aprendizagem de máquina, redes neurais e computação cognitiva.
Por que a AI é uma tendência rejuvenescida? Schroeder aponta para os três Vs usados ​​frequentemente para definir Big Data: Velocidade, Variedade e Volume.

Plataformas que podem processar os três Vs com modelos de processamento modernos e tradicionais, que escalam horizontalmente, fornecem 10-20X eficiência de custo em relação às plataformas tradicionais, diz ele.
O Google documentou como algoritmos simples, executados freqüentemente contra grandes conjuntos de dados, produzem melhores resultados do que outras abordagens usando conjuntos menores.
Schroeder diz que veremos o valor mais alto da aplicação de IA para tarefas repetitivas de alto volume, onde a consistência é mais eficaz do que o ganho da  supervisão intuitiva humana à custa do erro humano e do custo.

2 - Big Data para governança ou vantagem competitiva.Em 2017, o conflito de governança versus valor de dados será mandatório, diz Schroeder. As empresas têm riqueza de informações sobre seus clientes e parceiros. As principais organizações gerenciarão seus dados entre casos de uso regulamentados e não-regulamentados. Os dados de casos de uso regulamentados exigem governança; qualidade e linhagem para que um órgão regulador possa relatar e rastrear dados através de todas as transformações até à fonte de origem. 
Schroeder diz que isto é obrigatório e necessário.

3 - As empresas se concentram em aplicativos orientados a negócios para evitar que as lagoas de dados se tornem pântanos.
Em 2017, as organizações passarão da abordagem de "construa e virão" para uma abordagem de dados orientada a negócios, diz Schroeder. 
O mundo de hoje requer capacidades analíticas e operacionais para atender clientes, processar reivindicações e interface para dispositivos em tempo real em um nível individual.
Por exemplo, qualquer site de comércio eletrônico deve fornecer recomendações individualizadas e verificações de preços em tempo real. As organizações de saúde devem processar reivindicações válidas e bloquear reivindicações fraudulentas, combinando análises com sistemas operacionais. As empresas de mídia devem personalizar cada vez mais o conteúdo veiculado por set top boxes. Os fabricantes de automóveis e empresas de compartilhamento de trajeto estão interoperando em escala com carros e motoristas. 
Suportar esses casos de uso requer uma plataforma ágil capaz de fornecer processamento analítico e operacional para aumentar o valor de casos de uso adicionais que vão de análise de back office para operações de front office.
Em 2017, diz Schroeder, as organizações empurrarão agressivamente o uso de dados para além de uma abordagem de "perguntas". O objetivo será impulsionar o valor comercial inicial e de longo prazo.

4 - Agilidade de dados separa vencedores e perdedores.
Desenvolvimento de software tornou-se ágil onde DevOps fornece entrega contínua, diz Schroeder.
Em 2017, os modelos de processamento e de análise de dados evoluirão para proporcionar um nível de agilidade semelhante à medida em que as organizações percebem que a agilidade dos dados, a capacidade de entender os dados no contexto e de tomarem medidas empresariais é a fonte de vantagem competitiva. 
O surgimento de modelos de processamento ágil permitirá que a mesma instância de dados suporte análise de lote, análise interativa, mensagens globais, banco de dados e modelos baseados em arquivos, diz ele. Modelos analíticos mais ágeis também são ativados quando uma única instância de dados pode suportar um conjunto mais amplo de ferramentas. O resultado final é uma plataforma ágil de desenvolvimento e aplicação que suporta a mais ampla gama de modelos analíticos e de processamento.
5 - Blockchain transformando aplicativos de serviços financeiros.
Em 2017, haverá casos de uso seletivos e transformacionais em serviços financeiros que surgem com amplas implicações na forma como os dados são armazenados e as transações processadas, afirma Schroeder. 
O Blockchain fornece um ledger global distribuído que altera a maneira como os dados são armazenados e as transações são processadas. É executado em computadores distribuídos em todo o mundo onde as cadeias podem ser visualizadas por qualquer pessoa. As transações são armazenadas em blocos onde cada bloco se refere ao bloco anterior. Esses blocos recebem um carimbo de tempo armazenando os dados são criptografados, de modo que o conteúdo dos blocos não pode ser alterado. Hackers acham que é teoricamente impossível cortar o Blockchain desde que o mundo tenha visão de todo o Blockchain.
Portanto, o Blockchain fornece óbvia eficiência para os consumidores. Por exemplo, os clientes não terão que esperar por essa transação SWIFT ou se preocupar com o impacto de um vazamento de datacenter central. Já para as empresas, Blockchain apresenta uma economia de custos e oportunidades de vantagem competitiva, diz Schroeder.

6 - A aprendizagem mecânica maximiza o impacto dos microserviços.
Este ano, veremos aumento de integração da aprendizagem de máquinas com os microservices, diz Schroeder.
Anteriormente, implantações de microserviços  foram focadas em serviços leves e aqueles que incorporam a aprendizagem da máquina têm sido tipicamente limitados a integrações de "dados rápidos", de fluxo contínuo. Em 2017, veremos mudança de desenvolvimento para aplicações que alavanquem Big Data e a incorporação de abordagens de aprendizado de máquina que usem grandes quantidades de dados históricos para entender melhor o contexto de dados de fluxo contínuo.
- See more at: http://cio.com.br/tecnologia/2017/04/18/15-tendencias-de-analise-de-dados-que-dominarao-2017/#sthash.Qcxf9EEw.dpuf
Junto com Social, Mobile e Cloud, Analytics e tecnologias associadas a Big Data ganharam lugar entre os principais disruptores da Era Digital. 2016 viu as tecnologias de Big Data cada vez mais alavancadas para impulsionar a inteligência de negócios. Veja o que 2017 mantém no radar da análise de dados.
John Schroeder, presidente executivo e fundador da MapR Technologies , prevê que as seguintes tendências dominarão dados e Analytics este ano:
1- A inteligência Artificial (IA) está de volta.Na década de 1960, Ray Solomonoff lançou as bases de uma teoria matemática da IA, introduzindo métodos bayesianos universais para a inferência indutiva e a análise preditiva. Em 1980, a Primeira Conferência Nacional da Associação Americana de Inteligência Artificial (AAAI) foi realizada em Stanford e marcou a aplicação de teorias em software. AI está de volta em discussões mainstream e buzzword guarda-chuva para a inteligência de máquina, aprendizagem de máquina, redes neurais e computação cognitiva.
Por que a AI é uma tendência rejuvenescida? Schroeder aponta para os três Vs usados ​​frequentemente para definir Big Data: Velocidade, Variedade e Volume.

Plataformas que podem processar os três Vs com modelos de processamento modernos e tradicionais, que escalam horizontalmente, fornecem 10-20X eficiência de custo em relação às plataformas tradicionais, diz ele.
O Google documentou como algoritmos simples, executados freqüentemente contra grandes conjuntos de dados, produzem melhores resultados do que outras abordagens usando conjuntos menores.
Schroeder diz que veremos o valor mais alto da aplicação de IA para tarefas repetitivas de alto volume, onde a consistência é mais eficaz do que o ganho da  supervisão intuitiva humana à custa do erro humano e do custo.

2 - Big Data para governança ou vantagem competitiva.Em 2017, o conflito de governança versus valor de dados será mandatório, diz Schroeder. As empresas têm riqueza de informações sobre seus clientes e parceiros. As principais organizações gerenciarão seus dados entre casos de uso regulamentados e não-regulamentados. Os dados de casos de uso regulamentados exigem governança; qualidade e linhagem para que um órgão regulador possa relatar e rastrear dados através de todas as transformações até à fonte de origem. 
Schroeder diz que isto é obrigatório e necessário.

3 - As empresas se concentram em aplicativos orientados a negócios para evitar que as lagoas de dados se tornem pântanos.
Em 2017, as organizações passarão da abordagem de "construa e virão" para uma abordagem de dados orientada a negócios, diz Schroeder. 
O mundo de hoje requer capacidades analíticas e operacionais para atender clientes, processar reivindicações e interface para dispositivos em tempo real em um nível individual.
Por exemplo, qualquer site de comércio eletrônico deve fornecer recomendações individualizadas e verificações de preços em tempo real. As organizações de saúde devem processar reivindicações válidas e bloquear reivindicações fraudulentas, combinando análises com sistemas operacionais. As empresas de mídia devem personalizar cada vez mais o conteúdo veiculado por set top boxes. Os fabricantes de automóveis e empresas de compartilhamento de trajeto estão interoperando em escala com carros e motoristas. 
Suportar esses casos de uso requer uma plataforma ágil capaz de fornecer processamento analítico e operacional para aumentar o valor de casos de uso adicionais que vão de análise de back office para operações de front office.
Em 2017, diz Schroeder, as organizações empurrarão agressivamente o uso de dados para além de uma abordagem de "perguntas". O objetivo será impulsionar o valor comercial inicial e de longo prazo.

4 - Agilidade de dados separa vencedores e perdedores.
Desenvolvimento de software tornou-se ágil onde DevOps fornece entrega contínua, diz Schroeder.
Em 2017, os modelos de processamento e de análise de dados evoluirão para proporcionar um nível de agilidade semelhante à medida em que as organizações percebem que a agilidade dos dados, a capacidade de entender os dados no contexto e de tomarem medidas empresariais é a fonte de vantagem competitiva. 
O surgimento de modelos de processamento ágil permitirá que a mesma instância de dados suporte análise de lote, análise interativa, mensagens globais, banco de dados e modelos baseados em arquivos, diz ele. Modelos analíticos mais ágeis também são ativados quando uma única instância de dados pode suportar um conjunto mais amplo de ferramentas. O resultado final é uma plataforma ágil de desenvolvimento e aplicação que suporta a mais ampla gama de modelos analíticos e de processamento.
5 - Blockchain transformando aplicativos de serviços financeiros.
Em 2017, haverá casos de uso seletivos e transformacionais em serviços financeiros que surgem com amplas implicações na forma como os dados são armazenados e as transações processadas, afirma Schroeder. 
O Blockchain fornece um ledger global distribuído que altera a maneira como os dados são armazenados e as transações são processadas. É executado em computadores distribuídos em todo o mundo onde as cadeias podem ser visualizadas por qualquer pessoa. As transações são armazenadas em blocos onde cada bloco se refere ao bloco anterior. Esses blocos recebem um carimbo de tempo armazenando os dados são criptografados, de modo que o conteúdo dos blocos não pode ser alterado. Hackers acham que é teoricamente impossível cortar o Blockchain desde que o mundo tenha visão de todo o Blockchain.
Portanto, o Blockchain fornece óbvia eficiência para os consumidores. Por exemplo, os clientes não terão que esperar por essa transação SWIFT ou se preocupar com o impacto de um vazamento de datacenter central. Já para as empresas, Blockchain apresenta uma economia de custos e oportunidades de vantagem competitiva, diz Schroeder.

6 - A aprendizagem mecânica maximiza o impacto dos microserviços.
Este ano, veremos aumento de integração da aprendizagem de máquinas com os microservices, diz Schroeder.
Anteriormente, implantações de microserviços  foram focadas em serviços leves e aqueles que incorporam a aprendizagem da máquina têm sido tipicamente limitados a integrações de "dados rápidos", de fluxo contínuo. Em 2017, veremos mudança de desenvolvimento para aplicações que alavanquem Big Data e a incorporação de abordagens de aprendizado de máquina que usem grandes quantidades de dados históricos para entender melhor o contexto de dados de fluxo contínuo.
- See more at: http://cio.com.br/tecnologia/2017/04/18/15-tendencias-de-analise-de-dados-que-dominarao-2017/#sthash.Qcxf9EEw.dpuf
Junto com Social, Mobile e Cloud, Analytics e tecnologias associadas a Big Data ganharam lugar entre os principais disruptores da Era Digital. 2016 viu as tecnologias de Big Data cada vez mais alavancadas para impulsionar a inteligência de negócios. Veja o que 2017 mantém no radar da análise de dados.
John Schroeder, presidente executivo e fundador da MapR Technologies , prevê que as seguintes tendências dominarão dados e Analytics este ano:
1- A inteligência Artificial (IA) está de volta.Na década de 1960, Ray Solomonoff lançou as bases de uma teoria matemática da IA, introduzindo métodos bayesianos universais para a inferência indutiva e a análise preditiva. Em 1980, a Primeira Conferência Nacional da Associação Americana de Inteligência Artificial (AAAI) foi realizada em Stanford e marcou a aplicação de teorias em software. AI está de volta em discussões mainstream e buzzword guarda-chuva para a inteligência de máquina, aprendizagem de máquina, redes neurais e computação cognitiva.
Por que a AI é uma tendência rejuvenescida? Schroeder aponta para os três Vs usados ​​frequentemente para definir Big Data: Velocidade, Variedade e Volume.

Plataformas que podem processar os três Vs com modelos de processamento modernos e tradicionais, que escalam horizontalmente, fornecem 10-20X eficiência de custo em relação às plataformas tradicionais, diz ele.
O Google documentou como algoritmos simples, executados freqüentemente contra grandes conjuntos de dados, produzem melhores resultados do que outras abordagens usando conjuntos menores.
Schroeder diz que veremos o valor mais alto da aplicação de IA para tarefas repetitivas de alto volume, onde a consistência é mais eficaz do que o ganho da  supervisão intuitiva humana à custa do erro humano e do custo.

2 - Big Data para governança ou vantagem competitiva.Em 2017, o conflito de governança versus valor de dados será mandatório, diz Schroeder. As empresas têm riqueza de informações sobre seus clientes e parceiros. As principais organizações gerenciarão seus dados entre casos de uso regulamentados e não-regulamentados. Os dados de casos de uso regulamentados exigem governança; qualidade e linhagem para que um órgão regulador possa relatar e rastrear dados através de todas as transformações até à fonte de origem. 
Schroeder diz que isto é obrigatório e necessário.

3 - As empresas se concentram em aplicativos orientados a negócios para evitar que as lagoas de dados se tornem pântanos.
Em 2017, as organizações passarão da abordagem de "construa e virão" para uma abordagem de dados orientada a negócios, diz Schroeder. 
O mundo de hoje requer capacidades analíticas e operacionais para atender clientes, processar reivindicações e interface para dispositivos em tempo real em um nível individual.
Por exemplo, qualquer site de comércio eletrônico deve fornecer recomendações individualizadas e verificações de preços em tempo real. As organizações de saúde devem processar reivindicações válidas e bloquear reivindicações fraudulentas, combinando análises com sistemas operacionais. As empresas de mídia devem personalizar cada vez mais o conteúdo veiculado por set top boxes. Os fabricantes de automóveis e empresas de compartilhamento de trajeto estão interoperando em escala com carros e motoristas. 
Suportar esses casos de uso requer uma plataforma ágil capaz de fornecer processamento analítico e operacional para aumentar o valor de casos de uso adicionais que vão de análise de back office para operações de front office.
Em 2017, diz Schroeder, as organizações empurrarão agressivamente o uso de dados para além de uma abordagem de "perguntas". O objetivo será impulsionar o valor comercial inicial e de longo prazo.

4 - Agilidade de dados separa vencedores e perdedores.
Desenvolvimento de software tornou-se ágil onde DevOps fornece entrega contínua, diz Schroeder.
Em 2017, os modelos de processamento e de análise de dados evoluirão para proporcionar um nível de agilidade semelhante à medida em que as organizações percebem que a agilidade dos dados, a capacidade de entender os dados no contexto e de tomarem medidas empresariais é a fonte de vantagem competitiva. 
O surgimento de modelos de processamento ágil permitirá que a mesma instância de dados suporte análise de lote, análise interativa, mensagens globais, banco de dados e modelos baseados em arquivos, diz ele. Modelos analíticos mais ágeis também são ativados quando uma única instância de dados pode suportar um conjunto mais amplo de ferramentas. O resultado final é uma plataforma ágil de desenvolvimento e aplicação que suporta a mais ampla gama de modelos analíticos e de processamento.
5 - Blockchain transformando aplicativos de serviços financeiros.
Em 2017, haverá casos de uso seletivos e transformacionais em serviços financeiros que surgem com amplas implicações na forma como os dados são armazenados e as transações processadas, afirma Schroeder. 
O Blockchain fornece um ledger global distribuído que altera a maneira como os dados são armazenados e as transações são processadas. É executado em computadores distribuídos em todo o mundo onde as cadeias podem ser visualizadas por qualquer pessoa. As transações são armazenadas em blocos onde cada bloco se refere ao bloco anterior. Esses blocos recebem um carimbo de tempo armazenando os dados são criptografados, de modo que o conteúdo dos blocos não pode ser alterado. Hackers acham que é teoricamente impossível cortar o Blockchain desde que o mundo tenha visão de todo o Blockchain.
Portanto, o Blockchain fornece óbvia eficiência para os consumidores. Por exemplo, os clientes não terão que esperar por essa transação SWIFT ou se preocupar com o impacto de um vazamento de datacenter central. Já para as empresas, Blockchain apresenta uma economia de custos e oportunidades de vantagem competitiva, diz Schroeder.

6 - A aprendizagem mecânica maximiza o impacto dos microserviços.
Este ano, veremos aumento de integração da aprendizagem de máquinas com os microservices, diz Schroeder.
Anteriormente, implantações de microserviços  foram focadas em serviços leves e aqueles que incorporam a aprendizagem da máquina têm sido tipicamente limitados a integrações de "dados rápidos", de fluxo contínuo. Em 2017, veremos mudança de desenvolvimento para aplicações que alavanquem Big Data e a incorporação de abordagens de aprendizado de máquina que usem grandes quantidades de dados históricos para entender melhor o contexto de dados de fluxo contínuo.
- See more at: http://cio.com.br/tecnologia/2017/04/18/15-tendencias-de-analise-de-dados-que-dominarao-2017/#sthash.Qcxf9EEw.dpuf
Junto com Social, Mobile e Cloud, Analytics e tecnologias associadas a Big Data ganharam lugar entre os principais disruptores da Era Digital. 2016 viu as tecnologias de Big Data cada vez mais alavancadas para impulsionar a inteligência de negócios. Veja o que 2017 mantém no radar da análise de dados.
John Schroeder, presidente executivo e fundador da MapR Technologies , prevê que as seguintes tendências dominarão dados e Analytics este ano:
1- A inteligência Artificial (IA) está de volta.Na década de 1960, Ray Solomonoff lançou as bases de uma teoria matemática da IA, introduzindo métodos bayesianos universais para a inferência indutiva e a análise preditiva. Em 1980, a Primeira Conferência Nacional da Associação Americana de Inteligência Artificial (AAAI) foi realizada em Stanford e marcou a aplicação de teorias em software. AI está de volta em discussões mainstream e buzzword guarda-chuva para a inteligência de máquina, aprendizagem de máquina, redes neurais e computação cognitiva.
Por que a AI é uma tendência rejuvenescida? Schroeder aponta para os três Vs usados ​​frequentemente para definir Big Data: Velocidade, Variedade e Volume.

Plataformas que podem processar os três Vs com modelos de processamento modernos e tradicionais, que escalam horizontalmente, fornecem 10-20X eficiência de custo em relação às plataformas tradicionais, diz ele.
O Google documentou como algoritmos simples, executados freqüentemente contra grandes conjuntos de dados, produzem melhores resultados do que outras abordagens usando conjuntos menores.
Schroeder diz que veremos o valor mais alto da aplicação de IA para tarefas repetitivas de alto volume, onde a consistência é mais eficaz do que o ganho da  supervisão intuitiva humana à custa do erro humano e do custo.

2 - Big Data para governança ou vantagem competitiva.Em 2017, o conflito de governança versus valor de dados será mandatório, diz Schroeder. As empresas têm riqueza de informações sobre seus clientes e parceiros. As principais organizações gerenciarão seus dados entre casos de uso regulamentados e não-regulamentados. Os dados de casos de uso regulamentados exigem governança; qualidade e linhagem para que um órgão regulador possa relatar e rastrear dados através de todas as transformações até à fonte de origem. 
Schroeder diz que isto é obrigatório e necessário.

3 - As empresas se concentram em aplicativos orientados a negócios para evitar que as lagoas de dados se tornem pântanos.
Em 2017, as organizações passarão da abordagem de "construa e virão" para uma abordagem de dados orientada a negócios, diz Schroeder. 
O mundo de hoje requer capacidades analíticas e operacionais para atender clientes, processar reivindicações e interface para dispositivos em tempo real em um nível individual.
Por exemplo, qualquer site de comércio eletrônico deve fornecer recomendações individualizadas e verificações de preços em tempo real. As organizações de saúde devem processar reivindicações válidas e bloquear reivindicações fraudulentas, combinando análises com sistemas operacionais. As empresas de mídia devem personalizar cada vez mais o conteúdo veiculado por set top boxes. Os fabricantes de automóveis e empresas de compartilhamento de trajeto estão interoperando em escala com carros e motoristas. 
Suportar esses casos de uso requer uma plataforma ágil capaz de fornecer processamento analítico e operacional para aumentar o valor de casos de uso adicionais que vão de análise de back office para operações de front office.
Em 2017, diz Schroeder, as organizações empurrarão agressivamente o uso de dados para além de uma abordagem de "perguntas". O objetivo será impulsionar o valor comercial inicial e de longo prazo.

4 - Agilidade de dados separa vencedores e perdedores.
Desenvolvimento de software tornou-se ágil onde DevOps fornece entrega contínua, diz Schroeder.
Em 2017, os modelos de processamento e de análise de dados evoluirão para proporcionar um nível de agilidade semelhante à medida em que as organizações percebem que a agilidade dos dados, a capacidade de entender os dados no contexto e de tomarem medidas empresariais é a fonte de vantagem competitiva. 
O surgimento de modelos de processamento ágil permitirá que a mesma instância de dados suporte análise de lote, análise interativa, mensagens globais, banco de dados e modelos baseados em arquivos, diz ele. Modelos analíticos mais ágeis também são ativados quando uma única instância de dados pode suportar um conjunto mais amplo de ferramentas. O resultado final é uma plataforma ágil de desenvolvimento e aplicação que suporta a mais ampla gama de modelos analíticos e de processamento.
5 - Blockchain transformando aplicativos de serviços financeiros.
Em 2017, haverá casos de uso seletivos e transformacionais em serviços financeiros que surgem com amplas implicações na forma como os dados são armazenados e as transações processadas, afirma Schroeder. 
O Blockchain fornece um ledger global distribuído que altera a maneira como os dados são armazenados e as transações são processadas. É executado em computadores distribuídos em todo o mundo onde as cadeias podem ser visualizadas por qualquer pessoa. As transações são armazenadas em blocos onde cada bloco se refere ao bloco anterior. Esses blocos recebem um carimbo de tempo armazenando os dados são criptografados, de modo que o conteúdo dos blocos não pode ser alterado. Hackers acham que é teoricamente impossível cortar o Blockchain desde que o mundo tenha visão de todo o Blockchain.
Portanto, o Blockchain fornece óbvia eficiência para os consumidores. Por exemplo, os clientes não terão que esperar por essa transação SWIFT ou se preocupar com o impacto de um vazamento de datacenter central. Já para as empresas, Blockchain apresenta uma economia de custos e oportunidades de vantagem competitiva, diz Schroeder.

6 - A aprendizagem mecânica maximiza o impacto dos microserviços.
Este ano, veremos aumento de integração da aprendizagem de máquinas com os microservices, diz Schroeder.
Anteriormente, implantações de microserviços  foram focadas em serviços leves e aqueles que incorporam a aprendizagem da máquina têm sido tipicamente limitados a integrações de "dados rápidos", de fluxo contínuo. Em 2017, veremos mudança de desenvolvimento para aplicações que alavanquem Big Data e a incorporação de abordagens de aprendizado de máquina que usem grandes quantidades de dados históricos para entender melhor o contexto de dados de fluxo contínuo.
- See more at: http://cio.com.br/tecnologia/2017/04/18/15-tendencias-de-analise-de-dados-que-dominarao-2017/#sthash.Qcxf9EEw.dpuf
Compatilhe no Google Plus

Sobre Grimaldo Oliveira

Mestre pela Universidade do Estado da Bahia (UNEB) no Curso de Mestrado Profissional Gestão e Tecnologias Aplicadas à Educação (GESTEC) com o projeto “GESMOODLE – Ferramenta de acompanhamento do aluno de graduação, no ambiente virtual de aprendizagem(MOODLE), no contexto da UNEB“. Possui também Especialização em Análise de Sistemas pela Faculdade Visconde de Cairu e Bacharelado em Estatística pela Universidade Federal da Bahia. Atua profissionalmente como consultor há mais de 15 anos nas áreas de Data Warehouse, Mineração de Dados, Ferramentas de Tomada de Decisão e Estatística. Atualmente é editor do blog BI com Vatapá. Livro: BI COMO DEVE SER - www.bicomodeveser.com.br

0 comentários: