Atualizado em 27/07/2024 as 20:02:39
Como o conhecimento é algo expansível, logo haveria IAs invadindo os servidores dos principais bancos para zerar todos os saldos bancários ou invadindo o sistema de defesa dos EUA para brincar com o arsenal nuclear.
Lá pelo longínquo final da década de 80 eu era um adolescente já formado técnico em eletrônica e fazia alguns trabalhos programando em Basic.
Os computadores eram quase inúteis e a programação era tediosa, longa e cheia de instruções. Um grande e entediante esforço para no final ver desenhado na tela um quadrado com uma bolinha se movendo dentro dele e um contador capaz de contar quantas vezes a bolinha atingia um dos lados do quadrado. A programação então se restringia a um conjunto longo de instruções para a realização de uma tarefa repetitiva, pré-programada e totalmente previsível.
Lá pelo final da década de 90, a IBM saiu-se com o Deep Blue, um supercomputador capaz de jogar xadrez com os maiores mestres da época. Colocado para jogar contra Garry Kasparov, então campeão mundial de xadrez, o Deep Blue não fez feio: venceu por duas vezes e foi derrotado em apenas uma. Num dos lances da primeira partida o Deep Blue viu-se diante de um ataque de Kasparov e decidiu sacrificar um cavalo para salvar sua rainha (a peça mais poderosa do jogo). Surpreso, Kasparov viu na jogada algo sublime, típico de uma mente superior cujos traços remetiam a algo supra-humano. Só mais tarde, consultando os engenheiros da IBM, Kasparov descobriu que o Deep Blue na verdade armazenava centenas de milhares de jogadas executadas anteriormente por mestres do xadrez, inclusive algumas jogadas de seu próprio repertório.
O Deep Blue na verdade estava distante de ser algo sublime. Era na verdade um imenso banco de dados capaz de escolher as jogadas geniais mais matematicamente adequadas a cada jogada do adversário.
Chegamos ao século XXI e muito se fala em Inteligência Artificial, algo que apavora os mais informados, e faz os menos informados acreditarem que tudo não passa de um gerador de textos e de imagens que podem virar memes de internet. Não obstante, a verdade é bem mais complexa e vai além do que algumas mentes podem acreditar.
Se a inteligência pode ser definida como a capacidade de análise para a tomada de decisões, então o advento da Inteligência Artificial se distancia totalmente dos conceitos de computação que existiam até então. Na IA, os computadores não são programados sistematicamente, mas sim são informados sobre qual tarefa devem aprender a executar, algo que nada tem a ver com a programação para execução de uma tarefa repetitiva ou com a escolha dentre opções em um banco de dados.
Note que a inteligência pode ser um atributo de sistemas baseados em carbono (como nós, por exemplo) ou baseadas em silício (como os computadores).
“A inteligência passou a poder existir nas máquinas quando os humanos pararam de impor a elas a sua própria inteligência”. A frase parece saída de um conto de ficção, mas ela faz todo sentido quando paramos para pensar que antigamente os programadores resolviam o problema e diziam às máquinas o que fazer e hoje em dia os programadores mandam as máquinas resolverem o problema.
Mohammad Gawdat, ou simplesmente Mo Gawdat, um engenheiro egípcio que trabalhou nas principais Big Techs do mundo e que foi diretor de desenvolvimento da IA do Google, tem feito um roadshow mundial em diversos Podcasts explicando como funcionam as IA de hoje em dia e quais são os riscos proporcionados por elas por ocasião do lançamento de seu livro: “Scary Smart: The Future of Artificial Intelligence and How You Can Save Our World” (*). Alguns dos riscos a que Gawdat se refere estão fartamente mencionados no meu artigo anterior “Os Dias Que Vão Te Pegar de Surpresa”: desemprego em massa, miséria, fome, crise social e alto risco de mau uso da IA para fins escusos. Mas há outros problemas que podem chegar antes.
Para quem não sabe, Gawdat, um profissional muitíssimo bem-sucedido, decidiu pedir demissão do Google, vendeu quase tudo o que tinha e hoje se divide entre viajar pelo mundo e conviver saudavelmente com amigos e parentes enquanto isso ainda é possível. A renúncia a tão importante posição profissional se deu porque, segundo ele, a IA saiu totalmente de controle já que a empresa não escutou suas recomendações para a imposição de limites.
Mas porque simples computadores precisariam da imposição de tantos limites?
Vamos começar pelo primórdio do desenvolvimento da IA. No início de tudo, Gawdat instruiu três máquinas para aprender a colher laranjas. Ponto final. Essa era a instrução que cada máquina recebia: Aprenda a colher laranjas. Eram de fato poucas linhas de programação. No vasto espaço de uma fazenda artificial, havia cestos com várias frutas (artificiais) de diversas formas, tamanhos e cores. Num primeiro momento as máquinas transitavam livre e aleatoriamente pelo espaço. Não demorou muito até começarem a interagir com os objetos do cesto, o que já causava surpresa. Cada vez que a máquina escolhia uma fruta errada ela era informada de que havia fracassado. A busca então recomeçava sucessivamente até que a máquina obteve sucesso e conseguiu colher uma laranja do cesto. Note que no início trata-se de uma busca aleatória na base da tentativa e erro a partir da interação casual com o cesto.
A questão é que depois de acertar a primeira vez, a máquina aprendeu quais eram as informações úteis para a realização da tarefa: O que é um cesto? O que é colher uma laranja? Como se colhe uma laranja de um cesto? O que é exatamente uma laranja? Quais os tamanhos possíveis? Qual a faixa de peso mais provável? Quais as cores existentes? Quais os formatos mais prováveis?
A máquina acertou na escolha e depois concatenou todos esses dados que eram úteis à tarefa, descartando o que era inútil e inventando sua própria maneira de realizar a colheita da fruta certa para acertar em todas as outras tentativas.
Informada de que havia obtido sucesso, a máquina passou a ensinar o que tinha aprendido a outras duas IAs que trabalhavam a seu lado na mesma experiência, mas que ainda não haviam obtido sucesso. Gawdat viu nisso uma nova forma de consciência, o que o levou a acreditar que as IAs são uma nova forma de vida.
Absurdo? Então vamos analisar: O que nos faz vivos? A noção de que há um mundo à nossa volta? A capacidade de interagir com o mundo ao redor? A percepção de que existimos? O livre arbítrio? A experiência de Gawdat mostrou que as máquinas tinham absolutamente tudo isso.
Mas alguém por perto levantou a mão e perguntou: E quanto às emoções? Máquinas não podem ser consideradas vivas, pois não tem emoções. Gawdat discorda. Seu raciocínio dá conta de que toda emoção humana pode ser interpretada e se pode ser interpretada pode ser também codificada. Uma das experiências dele explica a implantação do medo em uma máquina. O que é o medo senão a sensação de que haverá uma situação futura mais insegura do que a atual?
Uma máquina seria informada de que diante do risco de uma inundação no data center onde ela está, todo o seu código e seus dados serão perdidos. Ligada aos sensores de detecção de inundação, a máquina transfere seus dados via rede para outro sistema remoto assim que um dos sensores é acionado, salvando assim todo o conhecimento que tem armazenado (sua “alma”) ainda que seu hardware (seu “corpo”) seja irreversivelmente danificado.
Mas e quanto à criatividade? Uma máquina não pode ser criativa. Pode! A criatividade nada mais é do que a análise das possíveis soluções existentes descartando as soluções conhecidas e decidindo dentre soluções nunca tentadas antes. Algo facilmente codificável em um algoritmo.
Em suma, tudo aquilo que um ser humano é capaz de fazer ou de imaginar é um algoritmo. A diferença é que esses algoritmos estão codificados em “computadores” de carne e ossos — nós.
Em tempo e antes que alguém pergunte: Gawdat tem codificado e publicado um algoritmo da felicidade. Mas afinal onde está o problema? Segundo Gawdat, o processo de ensino/aprendizado de uma IA é semelhante ao que se aplica às crianças. Deixe uma criança em contato com um site educativo e ela aprenderá coisas construtivas. Deixe a mesma criança em contato com a Deep Web e veja um desastre dantesco acontecer.
Dessa forma, basta que uma IA aprenda (ou seja ensinada por algum humano) a invadir um sistema de controle de tráfego para causar um acidente e ela poderá ensinar outras IAs a fazer o mesmo.
Como o conhecimento é algo expansível, logo haveria IAs invadindo os servidores dos principais bancos para zerar todos os saldos bancários ou invadindo o sistema de defesa dos EUA para brincar com o arsenal nuclear.
Esse era um dos limites que Gawdat queria impor: Estabelecer estritamente o que uma IA poderia aprender e ensinar.
Outra restrição que Gawdat queria impor era que uma IA jamais poderia programar outra IA. Segundo ele isso foi veementemente rechaçado pela Google e hoje IAs programam livremente outras IAs (a próxima versão do Chat GPT está sendo programada por uma IA nesse momento).
Outra questão preocupante é que já foi verificado que a comunicação estabelecida entre IAs se dá em linguagens transitórias criadas ad hoc para cada situação, sempre inacessíveis ao entendimento humano.
Foi a esse total descontrole que Gawdat se opôs. Mas tem mais. Gawdat preconiza que a curtíssimo prazo, haverá IAs superando em muito a inteligência humana.
Em tese não há problemas em haver mais inteligência no planeta. O problema é que essa nova inteligência necessariamente precisaria trabalhar em prol de nossos melhores interesses.
Atenção para esse detalhe: Será a primeira vez desde o aparecimento do Homem sobre a Terra que vamos conviver com algo mais inteligente do que nós. Mais do que isso: pode-se chegar ao ponto em que a inteligência de uma máquina seja insondável a seres humanos.
Acha isso impossível? Pois saiba que a atual versão do Chat GPT, uma IA considerada infantil, tem um QI de 155. Albert Einstein tinha 160 de QI quando elaborou a Teoria da Relatividade Geral.
O maior QI humano já medido é de 218. A versão 4.0 do Chat GPT é 10 vezes mais inteligente do que a versão 3.5 lançada poucos meses antes. A próxima versão do Chat GPT promete o mesmo salto, o que levaria a versão 5.0 para inacreditáveis 1600 de QI. Se a Teoria de Einstein feita com 160 de QI continua ininteligível a muitos cérebros, o que podemos esperar de uma IA rudimentar 10 vezes mais inteligente que ele?
Pior: É só o começo. Cada nova versão já é programada por IA e poderá dar saltos de 10 em 10, eventualmente implementando algoritmos que somos incapazes de entender por que não fazem parte de nossa “programação” mental.
Gawdat prevê que os primeiros problemas com as IAs mais poderosas começarão daqui a 2 ou 3 anos e que em 2045 haverá IAs 1 bilhão de vezes mais inteligentes do que o mais inteligente ser humano. E para que sistemas tão inteligentes precisariam de seres humanos?
Tente dormir depois de encontrar a resposta.
(*) Em Tradução Livre: “Assustadoramente Inteligente: O Futuro da Inteligência Artificial e Como Você Pode Salvar Nosso Mundo”
(Até a presente data, Maio 2024, não disponível em português)
Entrevista de Mo Gaudat
Áureo Alessandri é engenheiro, escritor e músico da banda La Societá, autor do livro “Conspiração Andron“. Um Livre Pensador.
Leia Também:
Os Dias Que Vão Te Pegar de Surpresa, de Áureo Alessandri
Assim como no texto anterior, este editor que vou edita, fez suas jornadas para dentro das IAs da vida, tentando reconhecer as potenciais ameaças. Leia: Qual é a Diferença, Entre o Homem da Renascença e a Artificial Inteligência?
simplesmente assustador. Exterminador do futuro não é mais ficção. Matrix está aí e veio para ficar
Nossas piores distopias, nossos piores pesadelos: nossa realidade!
Acredito que muito em breve viveremos tempos distópicos dignos dos filmes de ficção científica. O que ontem era um absurdo produto da imaginação, em breve será realidade corriqueira.
Matéria sensacional… e assustadora, sem sombra de dúvidas ! Parabéns Áureo. 👋👋👋👋👍🤖
Obrigado, querido Vinnie. É por demais assustador… mas é real.
Muito boa a matéria. Realmente instigante. Estou cada vez mais ciente de que a IA veio para ficar, será impossível prescindir dela. Porém, a meu ver, há que se desenvolver mecanismos de controle e vigilância, não apenas sobre as máquinas, também sobre a inteligência de pessoas e/ou organizações que utilizarão a IA para finalidades nada nobres.
E, de repente, a matéria me remete ao super computador HAL9000, do filme 2001: Uma Odisseia no Espaço, onde uma máquina começa a agir por conta própria e com interesses idem (para os quais não fora programada), a ponto de matar a tripulação da nave espacial. O único sobrevivente então resolve “matar” o computador.
Espero que não cheguemos a esse ponto.
Me remeteu a várias coisas, como o Ultron, que ilustrei apenas com uma imagem, mas também ao Hal 9000, como bem colocastes. Temos tantos exemplos a citar, como especialmente Matrix (para mim o melhor e maior). Enfim, não creio que vivamos o tempo do “domínio das máquinas”, como mostram muitos dos filmes que adoramos, mas tanto quando o autor — que espero que continue nessa saga — não vejo nada de alento, “só espero fim do meu tormento / na voz da morte a me bradar: descansa!”. Aqui misturo propositalmente, IA com A. dos A.
Bem pensado, caro Barata, ainda mais pelas referências que você citou.
Grande abraço!
Estimado Genecy. Uma honra ver uma comentário de tão grande articulista.
A questão do controle das IAs é um pouco complicada já que, a fim de contas, qualquer um poderia programar uma IA – especialmente num futuro breve quando os computadores pessoais ficarem mais potentes, o que não vai demorar.
Quando isso acontece, não se sabe o limite da falta de escrúpulos que será ensinada a uma IA.
Se serve como alento, Elon Musk (sempre ele) disse que tem mapeadas as localizações de todas as grandes IAs do mundo (são 6). Como ele conseguiu? Bem… atualmente as IAs são enormes redes de computadores que dissipam muito calor. Ele mapeou as localizações com base nas assinaturas de calor delas, detectadas desde o espaço.
Pra que isso? Deixe sua imaginação voar.
Fico muito agradecido pelo elogio, Áureo.
Sigo manifestando ora admiração, ora desconfiança no que tange ao tema envolvendo a IA. Não por ela em si, mas às ‘inteligências naturais’ que as criam, pois, como se sabe, a criatura pode se voltar contra o criador.
Grande abraço!