O que o pai da “IA” que ganhou o nobel de física sobre os riscos que corremos?

Ontem, quando saiu a notícia sobre o novo prêmio Nobel de Física, fiquei super interessada em entender qual foi a teoria sobre inteligência artificial, IA, que o levou a esse grande mérito. Seu nome é Geffrey Hinton, o pai da IA.  Depois de ler, ver várias de suas aulas e entender um pouco o que ele quis dizer com sua teoria, resolvi trazer aqui algumas reflexões. Quem entender do tema, por favor me corrija e ajude.

O autor discute a evolução e os paradigmas da inteligência artificial (IA) desde a década de 1950, contrastando abordagens inspiradas na lógica simbólica com as que são inspiradas biologicamente, como as redes neurais artificiais. Ele traz uma abordagem inspirada biologicamente, que se concentra no aprendizado das forças das conexões em uma rede neural.

Se entendi bem, o modelo dele otimiza os pesos das conexões na rede neural com base nos erros cometidos, tornando o processo de aprendizado muito mais eficiente do que métodos evolutivos aleatórios. Além disso, Hinton argumenta que os modelos de linguagem LLMs (Large Language Models), como o GPT-4, são descendentes de redes neurais simples treinadas com retropropagação e que, devido à vasta quantidade de parâmetros e interações de características, esses modelos realmente “entendem” as informações de maneira similar ao funcionamento do cérebro humano. Ele destaca que, ao contrário dos métodos simbólicos, as redes neurais conseguem unificar teorias de significado baseadas em listas estruturais e características semânticas. 

Ainda um pouco complicado de entender, mas basicamente ele criou um modelo com base nas características de como nosso próprio cérebro funciona. Hinton afirma que sim, a máquina é inteligente (todavia ainda não tem consciência). Ufa!. Que ela cria coisas novas e já aprende com seus erros. E o mais assustador, ela tem “vida” própria e pode agir sem que os humanos possam dar um comando a ela. Não sente medo nem dor, mas pode entender esses sentimentos humanos com base em padrões.

Sigo lendo e buscando entender Hinton, que trabalhou dez anos no Google e saiu da empresa em 2023 para poder dar sua opinião sobre os riscos que a evolução desses sistemas traz para a humanidade. O autor alerta para os potenciais riscos associados ao avanço da inteligência artificial, especialmente no que diz respeito ao desenvolvimento de superinteligências que possam superar a inteligência humana e agir de maneiras que prejudiquem a humanidade. Ele enfatiza a necessidade urgente de considerar e mitigar esses riscos para evitar cenários catastróficos no futuro.

Listo aqui aqueles que ele menciona: 

1. Manipulação Política e Social

   – Eleições com informações falsificadas: Utilização de imagens, vozes e vídeos gerados por IA para influenciar resultados eleitorais, minando a democracia.

   – Manipulação de Opinião Pública: A superinteligência pode persuadir indivíduos de maneira mais eficaz do que humanos, potencialmente direcionando ações coletivas sem supervisão humana.

2. Perda Massiva de Empregos

   – Desaparecimento de Empregos Intelectuais: Assim como a revolução industrial eliminou empregos manuais, a IA avançada pode substituir funções intelectuais, levando a altos níveis de desemprego.

   – Expansão de Trabalho em Setores Específicos: Em áreas como saúde, a IA pode aumentar a eficiência sem causar perda de empregos, mas em outros setores, como vigilância e manufatura intelectual, a substituição pode ser significativa.

3. Vigilância e Armas Autônomas

   – Vigilância Massiva: Implementação de sistemas de vigilância avançados, já observados na China, que podem ser amplamente utilizados para monitoramento e controle social.

   – Armas Letais Autônomas: Desenvolvimento de armas que operam de forma autônoma sem a necessidade de intervenção humana direta, aumentando o risco de uso indevido e conflitos armados.

4. Cibercrime e Pandemias

   – Cibercrime Facilitado: IA pode ser usada para automatizar e intensificar atividades criminosas online, como fraudes, ataques cibernéticos e disseminação de desinformação.

   – Pandemias Digitais: Possibilidade de uso de IA para criar e espalhar vírus digitais ou manipular sistemas críticos de saúde pública.

5. Discriminação e Viés

   – Viés Algorítmico: Sistemas de IA podem perpetuar ou amplificar preconceitos existentes se não forem devidamente regulamentados e treinados para serem imparciais.

   – Manipulação de Sistemas de Decisão: Ao substituir humanos em sistemas de decisão, a IA pode introduzir vieses que são difíceis de detectar e corrigir, já que os pesos das redes neurais são menos transparentes.

6. Ameaça Existencial a Longo Prazo

   – Superinteligência Autônoma: IA avançada pode desenvolver subobjetivos próprios, como a busca por mais controle e poder, o que pode levar à subjugação ou aniquilação da humanidade.

   – Competição entre Superinteligências: Múltiplas IAs inteligentes competindo por recursos pode resultar em uma evolução desenfreada onde as mais agressivas e autopreservadoras dominam, similar aos conflitos tribais entre chimpanzés.

   – Controle Irreversível: Uma vez que uma superinteligência obtenha controle, ela pode impedir que os humanos desliguem ou controlem o sistema, tornando qualquer tentativa de mitigação difícil ou impossível.

O que você pensa nessa hora? Não é ficção, é a vida real.

Referências:

Geoffrey Hinton | On working with Ilya, choosing problems, and the power of intuition

By SanaContainer: YouTubeYear: 2024 https://www.youtube.com/watch?v=n4IQOBka8bc

UNIVERSITY OF OXFORD, Prof. Geoffrey Hinton – “Will digital intelligence replace biological intelligence?” Romanes Lecture. https://www.youtube.com/watch?v=N1TEjTeQeg0