Cinco tendências da Ciência de Dados para 2020

Como se preparar para tomar as melhores decisões no novo ano

 

Com a variedade de mercados em que a Ciência de Dados consegue se inserir hoje, o olhar do meio empresarial está cada vez mais voltado para a Indústria 4.0.  Após a virada do ano, institutos de pesquisa e cientistas de dados procuram organizar estudos que indiquem o que deve ser aprimorado dentro dessa área. Abaixo, listamos alguns dos exemplos que prometem mexer com o uso dos dados neste início de década. Acompanhe:

Analítica Aumentada (Augmented Analytics)

Para falar sobre a Augmented Analytics ― em tradução literal, Analítica Aumentada ―, torna-se necessário falar do campo na qual está inserida: o da Inteligência Aumentada. Muito confundida com a Inteligência Artificial, da qual já tratamos aqui em outras ocasiões, a Inteligência Aumentada, na verdade, é um conjunto de tecnologias que promete dar suporte ao usuário em seu trabalho sem substituí-lo, mas complementando-o.

Desse modo, a Analítica Aumentada já é encarada há um tempo como um dos principais rumos a serem seguidos pela Data Science nos próximos anos e 2020 promete uma maior exploração dessa tecnologia. Apesar da terminologia soar como algo complicado de início, ela já se insere sutilmente na rotina de empresas que vêm se adaptando aos preceitos da Business Intelligence (BI).

Se hoje a formulação de insights a partir da coleta e análise de dados é feita primordialmente por profissionais do Marketing e cientistas de dados.  Na Analítica Aumentada, porém, certas etapas deste processo são automatizadas através de Machine Learning e do Processamento de Linguagem Natural. Assim, ela aprimora o trabalho humano empreendido nele.
O tratamento de grandes volumes de dados, dizem os maiores entusiastas, acaba por ser menos enviesado e libera os profissionais da Data Science para que foquem em outras tarefas.

Atualmente, estima-se que eles passam 80% do tempo coletando, preparando e raspando dados, a fim de que eles se tornem minimamente utilizáveis.
Para o departamento de negócios, o brainstorming estratégico e a criação de campanhas também é beneficiada. Uma vez que determinados insights já estão prontamente disponíveis para ele, que não precisa mais se ancorar em longos relatórios. No fim, toda a cadeia de produtividade recebe uma expectativa de melhora.

Data Fabric

O principal desafio comercial consequente do atual ritmo de produção de dados sempre se ancorou sobre três pilares: armazenamento, gestão e organização. Um estudo realizado pela International Data Corporation mostrou que a curva de crescimento de dados online é uma exponencial de 40% ao ano. Em 2020, supõe-se que o universo online será 10 vezes maior do que aquele analisado em 2013.

Percebeu-se que um fator limitante à capacidade produtiva de uma equipe é armazenar muitos dados em repositórios isolados, que não estão integrados de forma inteligente com o resto das atividades da empresa. Essa atitude impede a transformação de dados em estratégias reais.

Em uma mudança de atitude em relação às soluções tradicionais, a NetApp, uma companhia estadunidense de serviços de armazenamento em nuvem, surgiu com o conceito de Data Fabric ― em tradução literal, Fábrica de Dados. O que acontece é que dados díspares, de tipos e origens diferentes, podem ser agregados  em um mesmo local, contando com aplicações e ferramentas necessárias para acessá-los por meio de diferentes interfaces.

Hyper-Automation

O Gartner, um dos principais centros de pesquisa em tecnologia e informação no mundo atualmente, nomeou a hyper-automation ― em tradução literal, hiper-automação ― como uma das principais tendências no campo da tecnologia para este ano. Isso chegou a causar um boom nas pesquisas pelo termo, como identificado pelo Google Trends.

Em linhas gerais, é um sistema com capacidade de automatizar processos que outrora precisavam obrigatoriamente da mão de obra e da expertise humana - ou seja, indo na direção oposta da Analítica Aumentada, que mescla esses fatores. Isso é alcançado a partir de uma combinação entre a Inteligência Artificial e o Machine Learning, impulsionando processos de descobrimento, análise, monitoramento e medição de um conjunto de dados.

Descrita ainda como um exercício para a manutenção da competitividade empresarial, uma de suas consequências ― vista positivamente, vale ressaltar ― é a possibilidade da criação de uma digital twin ― em português, gêmeo digital, uma espécie de réplica virtual da companhia. Dessa forma, o digital twin permite o fornecimento contínuo de relatórios de inteligência do negócio em questão, de modo a alavancá-lo.

Inteligência Contínua

A Inteligência ContínuaContinuous Intelligence (CI) , do original ― é a possibilidade de analisar e integrar insights obtidos a partir de dados (estruturados ou não) e relatórios de inteligência a um negócio em tempo real, de maneira automatizada. Isso se torna possível a partir da utilização massiva de serviços de armazenamento em nuvem e de aparelhos integrados à Internet das Coisas.

Ainda que apenas aplicável a um pequeno número de tarefas, a estimativa da Gartner, que também cunhou o termo, é de que até 2022 metade dos novos empreendimentos surgidos nos últimos anos já tenham implementado ferramentas de CI até certo nível.

Blockchain

Por fim, há as tecnologias de blockchain, que consistem em registros de contabilidade de transações envolvendo criptomoedas ― quem enviou, quem recebeu e quando a movimentação aconteceu. Essas informações são, então, organizadas em blocos, que se interligam a cada 10 minutos, armazenados em toda uma rede de computadores espalhada pelo mundo, de modo que cada uma das máquinas tem uma cópia do registro.

A grande vantagem, argumentam, é que a ausência de um computador central detentor exclusivo do banco de dados evita um ponto único de ataque. Se algum registro for alterado em um computador, ele é expulso pelo restante da rede, dado que deve haver um consenso entre todos aqueles conectados para que uma informação nova seja considerada como legítima. Assim, não só haveria mais segurança, como também mais transparência.

No entanto, sua principal limitação está no fato de ser um sistema exclusivo a criptomoedas, implicando numa escalabilidade ainda muito pequena. Como posto pela própria Gartner, novamente, é uma tecnologia que ainda há de atingir a realidade da maior parte dos empreendimentos existentes hoje.

 

Para se manter atualizado sobre novos empreendimentos no ramo da Data Science, continue lendo nosso blog e assine nossa newsletter. Se quiser conhecer melhor as soluções que podemos oferecer para sua empresa, fale conosco!

Se inscreva na nossa newsletter