Dino

Arie Halpern: como traduzir bom senso em regras para ensinar as máquinas?

By

January 21, 2022

21/1/2022 –

Os princípios do aprendizado de máquina são claros, mas o raciocínio pelo qual o algoritmo chega às suas conclusões ao longo do treinamento não é tão claro.

O futuro da humanidade está em grande parte vinculado à forma como a sociedade administra dois recursos fundamentais: energia e informação. O avanço da tecnologia da informação é uma incógnita comparável à crise climática, tanto em termos de oportunidades, quanto de ameaças.

A evolução dos recursos de computação ajudará a resolver muitos problemas e abrir novas possibilidades. E esse progresso acontecerá por meio dos algoritmos e do avanço da inteligência artificial.

A Inteligência Artificial (IA), hoje, é usada basicamente para analisar grandes conjuntos de dados (big data), no reconhecimento de imagem e voz, tradução e solução de problemas complexos, principalmente nas áreas de finanças, tecnologia e jogos. Tudo isso com base no que é chamado de aprendizado de máquina. Essa prática usa redes de unidades de processamento lógico interconectadas que são ensinadas ou treinadas para detectar padrões no universo de dados disponíveis.

Ao longo do processo de treinamento ou aprendizado, são feitos pequenos ajustes com o objetivo de aprimorar a comunicação entre as unidades na rede, até chegar ao resultado correto. Depois de milhares ou até milhões dessas interações, o sistema passa a fornecer resultados corretos e confiáveis para os novos parâmetros. O aprendizado de máquina é um recurso poderoso.

Os algoritmos usados na tradução de idiomas, por exemplo, um dos mais simples, está longe de ser perfeito, mas já percorreu um longo caminho com o avanço tecnológico e, a cada ano, traz resultados mais assertivos. Combinados com o reconhecimento de voz da IA, esses sistemas já permitem a tradução em tempo real de texto falado.

Mas, mesmo com todos esses avanços, como ensinar bom senso às máquinas?

O problema, apontado por alguns, é que simplesmente não se sabe o que está acontecendo naquela caixa preta. Os princípios do aprendizado de máquina são claros, mas o raciocínio pelo qual o algoritmo chega às suas conclusões após o treinamento não é totalmente claro. Ocasionalmente, essas máquinas chegam a uma resposta muito peculiar que um humano dificilmente daria.

Nesse aspecto, é importante abordar uma questão que é apontada por muitos estudiosos como uma ameaça que poderia levar à concretização do que previu o matemático Alan Turing. Um dos pioneiros na ciência da computação e reconhecido como o criador da noção de inteligência de máquina, Turing, no artigo, “Computing machines and intelligence”, publicado em 1950, argumentava que o objetivo de fazer uma máquina que pensasse era viável e desejável. Porém, isso teria profundas implicações para a humanidade, pois não levaria muito tempo para que a máquina superasse os humanos. E assim, ele concluiu, “podemos esperar que as máquinas assumam o controle”.

A questão é que a IA precisaria do que é chamado de bom senso, mas simplesmente não se sabe como expressar isso em regras formais, que possam ser usadas para programar um computador. Em outras palavras, a IA pode ser capaz de fazer algumas coisas melhor do que as pessoas, mas jamais conseguirá pensar da mesma maneira e com a mesma racionalidade que o ser humano.

À medida que a Inteligência Artificial evolui e se torna cada vez mais poderosa, confia-se a ela decisões importantes. Porém, pode-se ter certeza de que ela não apresentará soluções que são, ponto de vista humano, imorais, desastrosas ou que coloquem as pessoas em perigo?

Website: http://www.ariehalpern.com.br/como-traduzir-bom-senso-em-regras-para-ensinar-as-maquinas/