Os 5 Vs do Big Data

Big Data é a palavra da moda ultimamente, faz parte do plano de negócios de muitas startups e sem dúvida nenhuma representa um marco histórico para ações de marketing, publicidade, crm, pesquisas científicas, enfim, toda atividade que se beneficia da análise de amostras de dados. No entanto, não existe nenhuma definição fiel ou específica do que seja realmente Big Data. Na verdade alguns escritores não concordam com o termo da forma como ele foi desenvolvido, uma vez que o termo remete somente a um grande volume de dados, quando na verdade Big Data não trata somente de volume expressivo de dados.

Com o avanço das comunicações, internet das coisas, dispositivos conectados, redes sociais e etc, nós consumidores passamos a gerar dados em diversas fontes diferentes, de maneiras diferentes e em um volume assustadoramente maior que na década passada. O conceito Big Data então propõe formas de tratar esses dados e retirar deles informações para serem utilizados estrategicamente.

O conceito de Big Data é formado pelo que os autores chama de 5V`s, que são: volume, velocidade, variedade, veracidade e valor. Vamos entender.

VOLUME

O primeiro V que compõe o Big Data é o volume. Aqui trata-se do volume de dados mantidos e analisados por ferramentas deste segmento. Sem dúvida a quantidade de dados que estamos gerando, ainda que não tomamos conhecimento é assustadora e nada disso é perdido. Constantemente usamos aplicativos de pagamento, de compras, de redes sociais, GPS, relacionamento, buscadores, comparadores de preço, aplicativos de saúde e bem estar, especializados em atividades físicas, músicas e etc., tudo isso gera dados e metadados que serão então agrupados para formar o “BIG” volume de dados a disposição das análises.

Na questão de volume, não somente dados de pessoas físicas são levadas em contas, empresas quando realizam transações via internet, utilizam aplicações web, enviam logs de aplicativos para seus desenvolvedores, mantém suas páginas em redes sociais, sites de reclamações de clientes e sem dúvida alguma, os bancos de dados federais também formam um volume expressivo de dados a disposição.

Estes dados aparentemente podem não fazer muito sentido mas quando analisados com as ferramentas matemáticas corretas podem compor informações valiosas, como perfis, tendências e etc. Por este motivo é fundamental que o volume seja realmente grande, para que as análises tenham dados para processar, comparar e determinar tendências.

VELOCIDADE

Se tratando então de um volume de dados grande para processar e comparar, é fundamental que esta tarefa seja realizada por equipamentos e softwares que garantam o resultado válido em tempo hábil. Esta tarefa demanda arquiteturas de computação específicas e também softwares especializados para a tarefa de forma a garantir que haja processamento adequado de dados para extração das informações necessárias.

Nas organizações a velocidade com que dados e informações fluem também aumentou significativamente, quase na mesma proporção com que os dados são gerados. Este aumento também demanda uma revisão nos modelos de softwares de gestão para que não haja comprometimento no aproveitamento deste recurso tão valioso. Quanto mais rapidamente as informações estão disponíveis para serem utilizadas, mais rapidamente as resoluções são desenvolvidas.

VARIEDADE

Como foi falado no conceito de volume, as fontes de dados atualmente disponíveis são as mais diversas possíveis e nem sempre comportadas em um modelo relacional, como softwares e aplicativos, por exemplo.

O Big Data beneficia-se de dados originados em diferentes aplicações, de diferentes modelos, em mídias diferentes para compor efetivamente o seu volume de dados a ser aproveitado. Esta variedade é benéfica e desejável para o modelo, uma vez que nem sempre aplicações com estruturas de dados relacionais formais comportam tudo o que pode ser aproveitado para gerar conhecimento.

Filmes, fotografias, textos, compras, dados de pagamentos, dados geográficos, de horário, links utilizados, cores escolhidas em produtos, sabores, aromas, etc. São todas informações analisadas quando trata-se de Big Data.

VERACIDADE

De nada adianta ter um volume massivo de dados, de fontes diferentes, em formatos diferentes se não é possível definir se estes são dados confiáveis. A qualidade do dado capturado e analisado é fundamental para o bom trabalho do Big Data.

A qualificação da fonte, a determinação de padrões, a confiabilidade do processo de captura e também, o processo de cruzamento de novos dados com outros já existentes e sobretudo a compreensão dos dados capturados ajudam a definir a sua veracidade e consequentemente o nível de confiabilidade da informação gerada.

VALOR

Por último, o Big Data determina que de nada adianta um grande volume de dados, velocidade no processamento, fontes diferentes e dados verificados se estes não possuem, agregam valor ou justificam o esforço do processo de consegui-los. A extração do Big Data, segundo pesquisa realizada pela Gartner em 2014 representava a preocupação de 26% das empresas que pretendiam implantar o Big Data.

Alguns autores chegam inclusive a serem bastante críticos quanto ao assunto afirmando que falar incansavelmente sobre a quantidade de dados disponíveis não ajuda muito os gestores na escolha do Big Data se isso não reduzir custos, melhorar os processos decisórios ou incrementar a qualidade de serviços e produtos. Além disso, o custo da extração das informações não deve superar o valor que de fato a informação tem enquanto patrimônio da organização.

Como vimos, o Big Data é ainda mais conceitual e complexo do que o nome propõe. No próximo post, trataremos de questões que favorecem projetos de Big Data, dessa maneira, acredito que ficará mais fácil determinar se já é o momento da sua empresa investir em Big Data. Até lá.

Deixe seu comentário