“Algo inacreditável está acontecendo na inteligência artificial neste momento — e não é inteiramente para o bem”, escreveu seis meses atrás Gary Marcus, professor emérito da Universidade de Nova York (NYU), nos Estados Unidos, e uma das principais vozes no debate sobre a IA na atualidade.
Em sua visão, o lançamento do ChatGPT nos está levando ao “momento Jurassic Park” das máquinas: a possibilidade — como no filme de Steven Spielberg — de que a situação fuja do controle.
“Quando escrevi esse artigo, acho que as pessoas pensaram que eu era louco ou alarmista”, afirmou Marcus, em entrevista à BBC News Brasil.
Mas sérios problemas com esse tipo de inteligência artificial começaram a proliferar em 2023: em março, na Bélgica, um homem que conversava frequentemente com o chatbot Eliza, da empresa Chai, cometeu suicídio.
Foi um cenário possível descrito quatro meses antes por Marcus em artigo para a revista Wired: “Talvez um chatbot vá magoar alguém tão profundamente que a pessoa será levada a acabar com a sua vida? (…) Em 2023, nós talvez vejamos nossa primeira morte por um chatbot”.
“Acho que esses sistemas podem ser muito destrutivos. E parte do motivo do potencial de destruição é que eles não são confiáveis. Esses programas podem inventar algo e dizer [a um usuário] que isso é um fato. E eles também podem ser usados por pessoas com essa finalidade”, diz.
“Os sistemas de inteligência artificial que temos agora não são bem controlados. Ainda não é uma situação terrível, mas as pessoas estão dando mais e mais poderes a eles. E não sabemos o que esses sistemas podem executar em uma determinada situação.”
‘Sete previsões sombrias’
Marcus compilou no ano passado “sete previsões sombrias” sobre sistemas como o ChatGPT, entre elas a de que a versão mais nova do programa seria como um “touro em uma loja de porcelanas, imprudente e difícil de controlar. Fará um significativo número de erros estúpidos, de fazer balançar a cabeça, em maneiras difíceis de prever”.
No final de março, um caso bizarro chamou a atenção. Uma pessoa pediu ao ChatGPT para citar acadêmicos envolvidos em episódios de assédio sexual.
A lista mencionava um professor norte-americano de Direito, Jonathan Turley. O programa disse que Turley fez comentários sexualmente sugestivos a uma aluna durante uma viagem ao Alasca e tentou tocá-la. A resposta citava como evidência uma reportagem de 2018 do jornal The Washington Post.
Mas nada disso jamais existiu: nem a viagem, nem a reportagem ou mesmo a acusação. Só o professor e sua reputação eram de verdade. É como se o robô tivesse inventado uma calúnia.
A OpenAI, empresa do ChatGPT, divulgou um comunicado dizendo que o programa “nem sempre gera respostas precisas”.
Para Marcus, “não temos nenhuma garantia formal de que esses programas vão trabalhar da forma correta, mesmo quando fazem cálculos matemáticos. Às vezes eles estão corretos, às vezes não. Falta de controle e de confiabilidade são problemas que enxergo”.
“A sua calculadora tradicional tem a garantia de uma resposta aritmética. Mas os grandes modelos de linguagem, não.”
Ele se refere ao sistema por trás do ChatGPT, os LLMs (sigla em inglês para large language models), que armazenam quantidades gigantescas de dados e geram, por meio de poderosos algoritmos, respostas por aproximação baseadas no que já foi dito antes por humanos.
Em resumo: um papagaio ultrassofisticado, mas que não faz ideia do que está falando e às vezes “alucina” — um termo da IA que designa uma resposta fora do esperado, desalinhada da expectativa dos programadores.
“Os LLMs não são tão inteligentes assim, mas são perigosos”, diz Marcus, que também colocou o crescimento de momentos de alucinação dentro de sua lista de “previsões sombrias”.
Além dos geradores de texto, os programas que manipulam imagens também evoluem rapidamente.
Recentemente uma foto do papa Francisco com uma descolada jaqueta prata, feita com o programa Midjourney, deixou a internet confusa por algumas horas: aquela imagem era real?
O episódio teve consequências inofensivas, mas foi uma amostra do potencial para inaugurar uma zona cinzenta permanente entre fatos e falsificações.
“A não ser que a gente tome providências, estamos próximos de entrar em um ambiente de pós-verdade”, afirma o professor da NYU.
“O que torna tudo muito difícil para a democracia. Precisamos de sanções para quem produz desinformação em massa, exigir marcas d’água para identificar de onde vem a informação e criar novas tecnologias para detectar inverdades. Assim como existe programa de antivírus, precisamos de software antidesinformação.”
‘O capitalismo não vai resolver esses problemas’
A experiência de Marcus, de 53 anos, não é restrita ao mundo acadêmico. Ele vendeu uma empresa para o Uber e se tornou diretor de um laboratório de IA da gigante dos apps de transporte — deixou o cargo depois de apenas quatro meses, num período em que a companhia enfrentava acusações de manter um ambiente “tóxico”.
Questionado se o famoso mantra “mova-se rápido e quebre coisas” do Vale do Silício e a competição desenfreada por mercados justamente não cria circunstâncias perigosas para o desenvolvimento da inteligência artificial, ele diz que “não dá para esperar que o capitalismo, por si só, vá resolver esses problemas”.
Ele defende que as empresas sejam objeto de regulamentação e cita o mercado de aviação como um exemplo de que é algo necessário.
“O setor aéreo na década de 1950 era um desastre. Os aviões caíam o tempo todo. A regulamentação foi boa para o setor aéreo, conseguiu que a indústria aérea desenvolvesse um produto melhor no final das contas”, afirma.
“Deixar as coisas nas mãos das empresas não necessariamente leva ao caminho correto. Você quer que as empresas sejam parceiras para construir o que precisa ser feito. Mas há uma razão para ter governos, certo?”
Entendimento com o ‘padrinho da IA’
O posicionamento de cautela e desconfiança com o entusiasmo pela rápida evolução da IA nem sempre foi bem recebido.
O ceticismo de Marcus foi ironizado em outros anos por seus pares (principalmente em alfinetadas pelo Twitter), mas a maré mudou: diversas personalidades da área começaram a adotar um tom diferente.
Geoffrey Hinton, chamado de “padrinho da IA”, anunciou seu desligamento do Google e afirmou logo na sequência que considera os problemas com inteligência artificial “talvez mais urgentes do que os da mudança climática”.
“Eu e Hinton temos visões diferentes sobre alguns aspectos da inteligência artificial. Eu me correspondi com ele há pouco, eu expliquei a minha posição e ele concordou comigo, o que nem sempre acontece. Mas a questão principal em que concordamos é controle”, afirma.
“Não necessariamente concordo que [IA] seja uma ameaça maior do que a mudança climática, mas é difícil saber. Há muitos dados estabelecidos para tentar estimar os riscos das mudanças climáticas. Mas com a inteligência artificial nós nem sabemos como calcular esses riscos.”
“Mas, para mim, a chance de que essas ferramentas sejam usadas para abalar democracias é essencialmente de 100%. Agora, se há chance de os robôs dominarem o planeta, não temos ideia. É razoável que algumas pessoas se dediquem a esse cenário. Estamos construindo ferramentas muito poderosas. Devemos considerar essas ameaças.”