5 tendências de Big Data para 2017

Diretor de marketing de produtos da Tableau comenta as cinco tendências mais importantes para o setor no ano.

big-data-okEm 2016, organizações começaram a armazenar, processar e extrair valor de dados de todas as formas e tamanhos. Neste ano, os sistemas que oferecem suporte a grandes volumes de dados estruturados e não estruturados continuarão crescendo e melhorando para operar de forma integrada com os padrões e sistemas da TI empresarial.

Ao mesmo tempo, haverá uma demanda de mercado por plataformas que ajudem os administradores de dados a gerenciar e proteger o Big Data e que permitam aos usuários analisar esses dados. Sistemas especializados serão integrados às plataformas analíticas existentes, estimulando a adoção pelas empresas.

Big data é o caminho para teles acompanharem a Indústria 4.0

Diante desse cenário, Dan Kogan, diretor de marketing de produtos da Tableau, comenta as cinco tendências mais importantes para o Big Data em 2017.

  1. Big Data mais ágil e acessível

“É claro que você pode utilizar o aprendizado de máquina (ou machine learning) e fazer análises de sentimentos no Hadoop, mas a primeira pergunta que as pessoas geralmente fazem é: o quanto o SQL interativo é rápido? Afinal, SQL é a via utilizada por usuários corporativos que desejam acessar os dados do Hadoop para criar painéis com KPIs mais interativos e ágeis, bem como para fazer análises exploratórias. Em 2017, as opções se expandirão para o Hadoop. Essa mudança já começou, conforme evidenciado pela adoção de bancos de dados mais ágeis como o Exasol e o MemSQL, de armazenamentos baseados no Hadoop, como o Kudu, e de tecnologias que possibilitam consultas mais rápidas”.

  1. O Big Data não está mais limitado ao Hadoop

“No passado, observamos que a onda do Big Data fez surgir várias tecnologias para atender às necessidades de análises no Hadoop. Porém, para empresas com ambientes complexos e heterogêneos, as respostas estão em diversas fontes de dados, que variam desde sistemas de registros e warehouses em nuvem até dados estruturados e não estruturados de fontes de dados do Hadoop e de outros tipos. Em 2017, clientes precisarão fazer análises com todos os tipos de dados. Consequentemente, as plataformas que são flexíveis em relação a dados e fontes irão prosperar, enquanto aquelas desenvolvidas especificamente para o Hadoop e que não são compatíveis com outros casos de uso serão deixadas de lado. A aquisição da Platfora é um indicador dessa tendência”.

  1. Organizações irão utilizar lagos de dados desde o início para obter valor

“Um lago de dados é como um reservatório. Primeiro você cria a estrutura (um cluster) e depois enche de água (dados). Depois que o lago estiver pronto, você começa a usar a água para várias finalidades, como geração de energia, consumo e recreação (análises preditivas, aprendizado de máquina, segurança cibernética, etc.). Até aqui, alimentar o lago tem sido suficiente. Em 2017, isso mudará, uma vez que não será mais tão fácil justificar comercialmente o uso do Hadoop. As organizações precisarão usar o lago repetidamente e com agilidade para obter respostas com mais rapidez”.

  1. Arquiteturas desenvolvidas para a flexibilidade em estruturas de dados

“O Hadoop tornou-se um mecanismo multifuncional para análises ad hoc, e tem sido usado até mesmo para gerar relatórios operacionais sobre as cargas de trabalho diárias, o que geralmente é feito por data warehouses. Em 2017, as organizações responderão a essas necessidades híbridas buscando uma arquitetura desenvolvida especificamente para um caso de uso. Elas pesquisarão diversos fatores, incluindo o comportamento dos usuários, perguntas, volumes, frequência de acesso e muito mais antes de escolher uma estratégia de dados. E as próprias estratégias combinarão as melhores ferramentas de preparação de dados de autoatendimento, o Hadoop Core e plataformas de análise voltadas para o usuário final, de forma a possibilitar sua reconfiguração à medida que essas necessidades evoluem”.

  1. A variedade é o que orienta os investimentos em Big Data

“O Big Data é definido pelos três Vs: volume, velocidade e variedade de ativos de informação. Embora os três Vs estejam em expansão, variedade está se tornando o maior responsável por investimentos em Big Data. Essa tendência continuará crescendo conforme as empresas buscam integrar mais fontes e se concentrar na “cauda longa” do Big Data. Do JSON sem esquema até tipos aninhados em outros bancos de dados (relacionais e NoSQL) e dados com formatação (Avro, Parquet, XML), os formatos de dados estão se multiplicando, e os conectores estão se tornando essenciais. Em 2017, as plataformas de análise serão avaliadas com base em sua capacidade de oferecer uma conectividade direta em tempo real com essas diversas fontes”.

Compartilhe:

Post Comment