logo
EN
HomeConteúdosInsightsTecnologia

9 min para ler


CESAR .


2017-03-06T00:00:00

Tecnologia


Big Data das coisas

Por Kiev Gama

Estamos nos deparando com o surgimento de novos tipos de produtos e serviços, além de uma mudança na própria indústria, onde o uso de dados torna-se um dos trunfos mais importantes.

Já é sabido por muita gente que, atualmente, alavancados pelas tecnologias de informação e comunicação (TICs), produzimos uma quantidade de informações muito maior do que podemos processar como humanos e até mesmo maior do que podemos processar com máquinas.

As últimas quatro décadas trouxeram evoluções tecnológicas gradativas que foram permitindo cada vez mais desaguar informações neste inesgotável oceano de bytes: nos anos 80 tivemos a popularização do computador pessoal; nos anos 90 a evolução das telecomunicações com a Internet comercial e vários tipos de redes de comunicação sem fio; na década seguinte chegaram os smartphones e na década atual estamos nos deparando com a ascensão da Internet das Coisas (Internet of Things — IoT).

A quantidade de informação produzida é tão grande que, há alguns anos, foi criada uma nova expressão — Big Data — para se referir a grandes quantidades de dados. O conceito não refere-se apenas a uma massa gigantesca de dados. Ele tampouco se refere a uma mera caixinha onde entram dados vindos de várias fontes e saem vários cifrões, graças à descoberta mágica de informações estratégicas para o negócio. Esse é o apenas o cenário que geralmente é apresentado em slides de apresentações de algumas empresas quando falam em Big Data.

Embora a origem do termo tenha vindo do mundo acadêmico[1], a primeira descrição popular do que seria Big Data é atribuída ao Gartner Group[2], que utilizou três letras “V” para explicar o que compõe este conceito: Velocidade (dados produzidos continuamente), Variedade (dados de tipos e fontes distintos — planilhas, redes sociais, vídeos, dados de sensores, etc.) e Volume (massas gigantescas acumuladas). Logo, “volume” não é a única coisa que o compõe, pois segundo esta definição, 50 terabytes de registros de ponto de funcionários (isoladamente) não seriam Big Data.

Tanto na indústria quanto na academia começou-se a discutir Big Data com ainda outras características. Seguindo a linha do Gartner de usar o “V”, foi-se adicionando ao conceito a VeracidadeVolatilidade Viabilidade. Entretanto, há também um outro “V” que é estratégico para qualquer negócio, o Valor. A economia do século XXI está cada vez mais se baseando em informação, que sem dúvida alguma é um diferencial competitivo para vários negócios. É fundamental saber que tipo de dado ou informação pode ser coletada e se aquilo pode gerar valor para a estratégia da empresa.

Novos negócios

A Internet das Coisas (IoT) caracteriza um cenário típico de Big Data, com dispositivos conectados produzindo dados continuamente (velocidade), em formatos variados dos diversos tipos de sensores envolvidos (variedade), e acumulando massas de dados que vão rapidamente crescendo (volume). Grande parte do valor por trás da IoT não está nas “coisas” em si, mas sim nos dados que elas produzem e as informações que podem ser obtidas a partir deles. Com a combinação destas duas novas tendências — Big Data e IoT — estamos nos deparando com o surgimento de novos tipos de produtos e serviços, além de uma mudança na própria indústria, onde o uso de dados torna-se um dos trunfos mais importantes. Novas ofertas de serviço então estão surgindo, baseadas na análise contínua de dados coletados por objetos inteligentes.

Por exemplo, o modelo de pay-as-you-drive (ou pay-how-you-drive), que começou sendo empregado por seguradoras de veículos nos EUA, como a Progressive, e já se replica em outros lugares do mundo, promete uma tarifa mais barata para quem aderir ao serviço. Utilizando um dispositivo específico conectado ao veículo, é possível coletar informações como frenagem, aceleração e tempo de viagem, que são enviados através de redes 3G/4G para um servidor da seguradora. A massa de dados gerada para cada usuário é processada para analisar o estilo de direção do motorista e gerar um valor personalizado do seguro que pode ser até 30% mais barato que a tarifa convencional. Não será surpresa se esses dados forem cruzados com informações de tráfego e estatísticas de acidentes dos locais por onde o carro passou, para saber se o risco da direção daquele motorista foi maior ou menor.

A utilização de dispositivos da IoT junto com Big Data representa uma forte combinação que pode ajudar a criar soluções para cidades, visando serviços mais otimizados e melhoria de qualidade de vida urbana. Dados de câmeras, medidores inteligentes de água, energia e de sensores de diversos propósitos (contagem de veículos, condições climáticas, detecção de alagamentos, etc) podem ser analisados para entender melhor a dinâmica da cidade e auxiliar na identificação de problemas em diversos domínios como mobilidade urbana, defesa civil e segurança pública. O nicho tecnológico de Smart Cities tem previsões otimistas de alcançar um valor global de mercado superior um trilhão de dólares até 2020, segundo a consultoria Frost & Sullivan[3].

O Google vem crescendo nesta área, já demonstrando esse interesse através da compra do Waze e recentemente pela a aquisição da Urban Engines, no mês de Setembro/2016. O Waze é conhecido de todos, e utiliza crowdsensing para coletar valiosos dados de tráfego em realtime e ajuda diariamente milhões de motoristas em seus trajetos. Já a Urban Engines, fundada em 2014, utiliza dados de diversas origens e formatos — smartphones, beacons, pagamentos de viagens em transporte público — para analisar e entender melhor o fluxo de pessoas e veículos em cidades e fornecer serviços para auxiliar no planejamento de mobilidade urbana.

A indústria também está passando por grandes transformações alavancadas pela IoT. Além dos benefícios diretos para os clientes através do uso desta nova onda de objetos computadorizados, as próprias linhas de produção das indústrias começam a ser transformadas em equipamentos inteligentes e conectados que aumentam a eficiência operacional através de diagnósticos em tempo real. Isso facilita reparos, diminui custos e evita paradas na produção, permitindo até mesmo a equipamentos se ajustarem de forma autônoma. Sensores também podem ser embutidos em produtos visando coletar dados sobre sua operação. Com isso, o mesmo princípio de manutenção preditiva da linha de produção pode ser também aplicado em produtos para os consumidores, visando analisar e diagnosticar possíveis problemas, emitindo-se para os usuários alertas sobre manutenção. Ademais, pode-se coletar dados para se entender como o produto vem sendo utilizado, permitindo aperfeiçoá-lo mais rapidamente e diminuir o ciclo de melhoria para novas versões do produto. A viabilidade de toda esta coleta e análise depende do uso de plataformas de software robustas baseadas em cloud computing para armazenamento escalável e processamento de tais dados.

Processamento em batch ou realtime?

É importante escolher as técnicas mais adequadas para extrair as informações desejadas, além de avaliar se há alguma necessidade de resposta rápida. Primeiramente, nem todo o dado coletado será útil. É importante fazer uma espécie de limpeza dos dados, por exemplo, eliminando duplicatas. Outro ponto importante diz respeito ao timing. O uso de Big Data típico iniciou-se com processamento em batch para se extrair informações ou efetuar previsões em cima das massas de dados adquiridas, aplicando-se técnicas úteis para analytics, como machine learning.

Entretanto, em cenários de IoT é recorrente se analisar os dados em tempo real, à medida em que são coletados, para permitir uma rápida tomada de decisão. Neste caso, o tratamento da informação se dá através de técnicas de processamento de fluxos de dados. Há pelo menos duas estratégias para analisar dados neste contexto: modelar e mapear eventos que serão notificados quando acontecerem ou utilizar técnicas que descubram tendências nos dados. Na primeira, já conhecemos o problema. Na segunda, queremos descobrir algo que não conhecemos.

Um fator crítico a ser levado em conta é o tempo. Dependendo do cenário, um atraso no processamento dos dados pode gerar informação que perdeu o timing (ex: cálculo de rota baseado em dados de redes sociais e de equipamentos de monitoramento de trânsito, diagnóstico de funcionamento de equipamento com base em dados de sensores) de sua utilidade ou levar a diferentes tipos de prejuízo (ex: atraso de entregas de mercadoria, pane de um equipamento, dano à saúde).

Além de produzirmos dados sobre nós mesmos na Internet e em redes sociais, cada vez mais coisas ao nosso redor estão se encarregando em fazer o mesmo. Duas importantes preocupações que surgem em torno do uso destes dados coletados por dispositivos são acerca da segurança e privacidade. Empresas que adotam estratégias de coleta de dados de uso de seus produtos devem ser transparentes desde o início a respeito de como está sendo feito o armazenamento e quais dados estão sendo lidos e transmitidos. Além de prover mecanismos para garantir segurança da informação é fundamental utilizar modelos em que seja possível permitir aos usuários optarem ou não pelo compartilhamento ou escolherem o que querem compartilhar.

São vários os cenários de uso de Big Data na Internet das Coisas e diversos aspectos devem ser levados em conta. Devemos ficar atentos a não apenas tratarmos do assunto como uma questão hype, ou moda passageira, mas entendermos como esta combinação seria relevante para cada negócio, quais dados são importantes de ser coletados, como eles serão analisados e em quanto tempo precisam gerar resposta, dentre várias preocupações.

Ainda há outros aspectos não necessariamente ligados à funcionalidade, mas a preocupações transversais como a segurança dos dados e privacidade dos usuários. Certamente há um potencial de gerar mais valor e novos negócios com o “Big Data das coisas”, mas é necessário trazer um olhar mais cuidadoso para aquela caixinha mágica desenhada do slide da apresentação, para sabermos como ela vai processar os dados que recebe antes de transformá-los nos almejados cifrões.

Kiev Gama é professor adjunto do Centro de Informática da UFPE (CIn-UFPE) e membro associado do CESAR. Obteve o doutorado em Ciência da Computação pela Université de Grenoble, França, em 2011. É pesquisador nas áreas de Engenharia de Software e Sistemas Distribuídos, aplicadas ao contexto da Internet das Coisas e Cidades Inteligentes.

big data