“Hoje impera um faroeste, um faroeste onde vale tudo. No Vale do Silício tem aquele velho slogan: ‘mova-se rápido e quebre coisas’ (‘move fast and break things’, no original, em inglês) e está sendo exatamente esse o caso.” É assim que o especialista em inteligência artificial Eugenio Vargas Garcia define o atual momento do setor, que vem recebendo uma atenção inédita desde o lançamento do robô conversador ChatGPT.
Garcia foi o especialista brasileiro nas negociações da Recomendação da Unesco sobre ética da Inteligência Artificial (IA) e é um dos signatários de uma carta aberta que pediu uma pausa de seis meses em todas as pesquisas e desenvolvimento de aplicações de inteligência artificial.
A carta, encabeçada pelo instituto sem fins lucrativos Future of Life, foi assinada por mais de 3.500 pessoas, entre elas acadêmicos, pesquisadores, empresários (como Elon Musk e Steve Wozniak, o cofundador da Apple), além de funcionários de grandes empresas de tecnologia, como Google, Meta e Microsoft, e desenvolvedores que trabalham com inteligência artificial.
“Cada um que assinou tem suas motivações próprias. A minha, no caso, não era tanto propor uma pausa nas pesquisas, mas sim de procurar chamar atenção para essa situação de corrida descontrolada entre as empresas, que estão colocando à disposição sistemas de impacto, sem que a gente saiba no que isso tudo vai dar”, explica Garcia.
Eugenio Vargas Garcia atua como cônsul-geral do Brasil em São Francisco, cidade americana que abriga o Vale do Silício. Ele falou à reportagem na condição de pesquisador.
Nesta reportagem você vai ver que:
– modelos de linguagem como o ChatGPT aprendem a procurar padrões estatísticos e adivinhar qual seria a próxima palavra em uma frase;
– apesar de buscar padrões e se aproximar da linguagem humana, o robô não entende verdadeiramente as palavras que escreve e pode acabar fornecendo informações falsas;
– essas ferramentas também não estão isentas de riscos e podem ser usados por criminosos para fraudes, desinformação e crimes cibernéticos;
– a velocidade como a IA tem sido desenvolvida também preocupa autoridades, já que as empresas do ramo têm sido pouco transparentes com seus modelos.
Aplicações de inteligência artificial não são novidade. Elas são usadas para reconhecimento facial, assistentes de voz, processamento de imagem e áudio e até para o mapeamento de proteínas.
Então, por que a preocupação expressa na carta com o desenvolvimento de “sistemas poderosos de inteligência artificial”?
A resposta está em sistemas como o ChatGPT, da startup OpenAI, que se tornou a aplicação de mais rápido crescimento da história em número de usuários e lançou gigantes de tecnologia como o Google e a Microsoft em uma corrida.
A disputa é para ver qual empresa conseguirá monetizar mais rápido a tecnologia, integrando-a com buscadores – como já está acontecendo com o Bing, da Microsoft. Isso tudo em um ambiente sem regulamentação ou protocolos de segurança estabelecidos.
O ChatGPT é um robô conversador que funciona pelo chamado “grande modelo de linguagem” (“large language model” ou LLM, na sigla em inglês). Ele gera em segundos textos coesos, bem escritos e – o mais importante – que parecem muito ter sido escritos por humanos.
“É uma ferramenta que trabalha com uma característica crucial da comunicação humana, que é a linguagem escrita”, explica Carlos Affonso de Souza, professor da UERJ e diretor do Instituto de Tecnologia e Sociedade (ITS).
“Nós, humanos, estamos acostumados a dar credibilidade a uma linguagem escrita quando ela é apresentada de forma concatenada, com sentido e coerência. Tendemos a atribuir inteligência à essa capacidade.”
No entanto, para muitos pesquisadores, os grandes modelos de linguagem e o ChatGPT estão muito longe de uma inteligência remotamente parecida com a humana – o que não significa que seu uso irrestrito e descontrolado não traga inúmeros riscos.