É sabido que o homem
produz grandes quantidades de dados, seja na utilização de um cartão de
crédito, uso do e-mail, telefone, celular, internet, dentre outras. Mas para
que serve essa volumosa gama de dados que o homem conhece? A resposta a essa
pergunta está na correlação entre os dados.
Podemos correlacionar,
utilizando a estatística aplicada, os dados para obter inferências ou deduções.
No geral, o homem só consegue correlacionar dois dados quando possui já a ideia
de correlação entre as variáveis. Por exemplo, um economista pode abordar duas
variáveis, renda média e consumo, e correlacionar ambas para identificar o grau
de dependência das duas variáveis. Não obstante, o economista deve ter em mente
a ideia de correlação de ambas.
Felizmente, dois
pesquisadores do laboratório de Cold Spring Harbor, Justin Kinney e Gurinder
Atwal, encontraram uma solução que facilite significativamente determinar as correlações
de variáveis em um gama muito extenso de dados. Essa forma é baseada em um
conceito matemático criado em 1948, por Claude Shannon, chamada de “informação
mútua”. Esta serve para medir a dependência mútua de duas variáveis quaisquer.
Agora, Justin e Gurinder
dizem que usando a ideia de informação mútua, um computador pode analisar
sistematicamente os dados e determinar uma correlação sem que nenhuma pessoa
lhe diga o que vasculhar. Logo, esse conceito matemática vai melhorar
potencialmente a análise moderna dos dados.
Fonte: futurocom.com (2014) |