A transmissão de dados matará o Big Data, tal como o conhecemos?

Big DataO mundo já embarcou na chamada Quarta Revolução Industrial. É esperado uma enorme disrupção na forma das empresas operarem o que terá um grande impacto na sociedade porque mudará a forma como os humanos se comportam, como se organizam e trabalham, assim como os conhecimentos e competências necessários. No entanto, isso também terá um impacto positivo na sustentabilidade. No coração desta transformação está a automatização, a robotização e a digitalização, que dependem de dados e sobre os quais já estamos a ver “rios de dados” a desaguarem nos oceanos de Big Data (os lagos são muito pequenos hoje em dia).

O Big Data é comummente visto em torno de três “Vs”: Volume, Velocidade e Variedade. No entanto muitos já estão a adicionar outros dois Vs – Veracidade e Valor. Estes parecem-me ser muito mais importantes. Como o objectivo é o de obter o máximo valor dos dados, o volume, velocidade e variedade não são assim tão importantes, isto porque o Valor que se obtém depende da Veracidade. Assim, o desafio crítico reside na extracção de informações valiosas e consequentes acções, isto no momento certo.

O desafio crítico reside na extracção de informações valiosas e accionáveis, no momento certo. #BigData #StreamingData Click To Tweet

O quê e quando é o momento certo?

Seja qual for a tecnologia aplicada aos repositórios de Big Data, todas as análises são baseadas em dados históricos. Elas dependem de eventos que já ocorreram e por isso, nada poderemos fazer acerca. Tudo o que podemos fazer é pesquisar e explorar esses oceanos de dados, aplicar algoritmos de análise avançada para compreender melhor o passado usando esse conhecimento para tentar prever como o futuro poderá ser.

Penso, no entanto, que isto mudará, e já estamos a começar a ver isso com a Inteligência Artificial – englobando Machine Learning, o Deep Learning

Estes algoritmos são projectados e desenvolvidos com o intuito de imitar o cérebro humano. À medida que aprendemos mais sobre o funcionamento do cérebro, melhor compreendemos que este não é uma máquina exacta. O cérebro recebe múltiplos sinais de uma gama ampla de sensores existentes dentro do nosso corpo assim como os inputs sensoriais, processando todos esses dados de forma rápida, mas em contexto. Se nada falhar com o processo de “pesquisa, avaliação de probabilidade, julgamento, decisão” então, para cada evento, o nosso cérebro devolve a melhor resposta.

Input, preveja, aja

O que memorizamos e como aprendemos? Bem… não sendo um neurocientista, a minha visão simplista de como o cérebro funciona é: há um input, pesquisamos pela melhor resposta possível enquanto a julgamos (aplicando, por exemplo, padrões e restrições sociais), prevemos o resultado mais provável e depois agimos, avaliando então, o seu impacto/resultado. sendo que tudo isto, é claro, ocorre em milisegundos. A aprendizagem vem da diferença entre a nossa previsão e o resultado real. Novamente, de forma simplista, memorizamos o input, o contexto, a acção, o resultado e a diferença face ao expectável. Parece muito simples, mas permitiu-nos evoluir para nos tornarmos a espécie mais avançada do globo. Como ainda não se encontrou uma forma de implementar emoções dentro da Inteligência Artificial optei por deixá-las de fora da equação.

Fundamentalmente, podemos considerar-nos como num estado de permanente processamento de múltiplos fluxos de dados (alguns até em combinação). Efectivamente, estamos constantemente a aplicar modelos preditivos sobre os fluxos de dados.

Fundamentalmente, no entanto, podemos considerar-nos como um permanente processamento de múltiplos fluxos de dados #StreamingData Click To Tweet

Big Data é reacção, Streaming Data é acção

À medida que a Inteligência Artificial evolui em direcção à replicação do funcionamento do cérebro humano, acredito que os algoritmos de auto-aprendizagem usarão cada vez menos dados históricos e muito mais os seus próprios resultados. Os dados históricos, e estou-me a referir a grandes quantidades de dados de uma ampla gama de todo o tipo de fontes, são necessários no desenho, teste e afinação dos algoritmos de auto-aprendizagem. Mas, uma vez que esses algoritmos se consigam auto-afinar a necessidade de dados históricos diminuirá ao mesmo ritmo que a diferença entre a previsão e a realidade vai sendo utilizada. À medida que estes algoritmos de auto-aprendizagem / auto-afinação se desenvolvem, precisaremos cada vez menos de Big Data tal como a conhecemos.

No futuro, muito provavelmente teremos algoritmos, que utilizando os fluxos de dados, aprendem sozinhos através da constante avaliação dos resultados das acções, evoluindo naturalmente e potencialmente criando novos algoritmos, trabalhando de forma dinâmica e em cooperação com outros, isto dependendo do contexto, tal como os humanos já o fazem.

João Oliveira
Principal Business Solutions Manager, Data Management
SAS South West Europe

Deixar uma resposta