Inteligência pode ser explicada por entropia

Uma equipe formada pelo físico Dr. Alexander Wissner-Gross, da Universidade Harvard e do MIT, e o matemático Dr. Cameron Freer, da Universidade do Hawaii, publicou, no Physical Review Letters, um estudo radical e controverso, entitulado Causal Entropic Forces, que pode trazer uma nova visão sobre o conceito de inteligência, ao relacioná-la com fenômenos físicos.

A pesquisa teve inspiração em trabalhos anteriores, que já sugeriram uma relação causal entre entropia e comportamento inteligente. Os pesquisadores se aprofundaram no tema, desenvolvendo um modelo matemático desta relação, bem como um software que, utilizando deste modelo, é capaz de resolver problemas que exigem comportamento cognitivo.

Segundo o autor, “[O paper] é uma tentativa de descrever inteligência como um processo fundamentalmente termodinâmico”.

A ideia básica por trás da pesquisa é a grandeza física conhecida por entropia, que basicamente descreve a quantidade de desordem de um sistema. A segunda lei da termodinâmica diz que, em um sistema isolado, a entropia só tende a aumentar.

Sabendo que a quantidade de entropia caminha sempre em uma direção, é possível assumir que, entre dois possíveis arranjamentos de um sistema, o que pode gerar o maior número possível de estados de entropia futuros é o mais promissor. O outro tende a atingir um estado de equilíbrio mais rápidamente.

O que Wissner-Gross e Freer propõem é a existência de uma chamada força entrópica causal, que tende a manter o desequilíbrio, maximizando o número de histórias futuras possíveis.

Para testar esta teoria, o cientista então desenvolveu um software de simulação, chamado Entropica, onde foi aplicada artificialmente esta força em simulações de uma variedade de testes. Com isso ele conseguiu obter resultados próximos daquilo que chamamos de inteligência. https://www.youtube.com/embed/SEZoDMsjwpo?list=PLEXwXLT-a6beFPzal3OznPQC0pieccAle

Uma aplicação da pesquisa, feita por um programador independente, demonstra um carro guiado apenas pela “inteligência entrópica”.

O Entropica foi capaz de resolver testes de cognição aplicados a animais, jogar jogos humanos, fazer operações lucrativas na bolsa de valores e até apresentar comportamentos considerados mais complexos, como uso de ferramentas e cooperação social. Tudo isso sem ter recebido qualquer instrução para completar essas tarefas.

Os resultados do estudo, por seu caráter ousado, foram recebidos com cautela pela comunidade científica: Os professores de psicologia, inteligência artificial e ciência da computação da Universidade de Nova Iorque Gary Marcus e Ernest Davis, criticam a natureza especulativa da pesquisa de Wissner-Gross e Freer. De acordo com eles, os cientistas não se esforçam para demonstrar a existência desta força hipotética na natureza. Eles também sugerem que os experimentos usados foram selecionados por apresentarem resultados positivos.

Wissner-Gross, no entanto, está confiante “Nós basicamente vemos isso como uma grande teoria unificada da inteligência”, diz ele. “E eu sei que isso soa talvez impossivelmente ambicioso, mas ela unifica diversos processos dentre várias áreas, de cosmologia a ciência da computação e comportamento animal, e lhe dá uma visão termodinâmica”.

Físico: "Você está tentando prever o comportamento de <sistema complexo>? Basta modelá-lo como um <objeto simples>, e então adicione alguns termos secundários para <complicações que eu acabei de pensar>. Fácil, né? Então, por que <sua área> precisa de um periódico próprio mesmo?"

Será que o estudos sobre inteligência e cognição podem dar uma guinada no sentido de começarem a trabalhar meramente com fenômenos físicos, ou é impossível descrever comportamentos tão complexos com apenas algumas equações matemáticas?

Referências:

  1. Publications – Alexander D. Wissner-Gross, Ph.D.
  2. From Atoms To Bits, Physics Shows Entropy As The Root Of Intelligence – Forbes
  3. How Skynet Might Emerge From Simple Physics – io9
  4. Physicist Proposes New Way To Think About Intelligence – Inside Science
  5. Focus: Model Suggests Link between Intelligence and Entropy – APS
  6. A Grand Unified Theory of Everything – The New Yorker
  7. Physicists – XKCD

Sobre o Autor

Fabiano Sant'Ana é o CEO e CVO do Galoá Science. Matemático Aplicado formado na Universidade de Campinas, a mais de uma década Fabiano trabalha diariamente com pesquisadores das mais diversas áreas automatizando tarefas, reduzindo esforços e maximizando o impacto da pesquisa científica brasileira.