Uma Inteligência Artificial que mente e manipula

Muitos estão inebriados, outros apavorados, com os avanços tecnológicos da Inteligência Artificial (IA), que promete desempenhar tarefas difíceis em resposta quase automática, o que seria o fim de várias profissões, invenções e até da criação artística, inspirada em emoções genuinamente humanas.

Muitos estão inebriados, outros apavorados, com os avanços tecnológicos da Inteligência Artificial (IA), que promete desempenhar tarefas difíceis em resposta quase automática, o que seria o fim de várias profissões, invenções e até da criação artística, inspirada em emoções genuinamente humanas.

O ChatGPT, ferramenta da empresa americana OpenAI disponível desde novembro/2022 e baseada nesse tipo de inovação é capaz de criar textos, músicas, composições, invenções, e vem chamando a atenção pela sua capacidade criativa, ao devolver respostas mediante a compilação de bilhões de metadados disponíveis na internet.

Tamanho o seu valor na vida moderna, não apenas para fins altruísticos tem sido usada a plataforma inteligente. Já se sabe que foi utilizada na criação de notícias falsas e até mesmo com finalidades criminosas, mediante edição de mensagens com conteúdo malicioso em e-mails e redes sociais para sequestro de dados.

Na mesma medida dos avanços e “ganhos de produção”, a tecnologia ganha vida própria e reage às provocações feitas pelos humanos.

Recentemente, o Bing, mecanismo de busca na internet tal como o Google, da norte-americana Microsoft, após ser integrado por inteligência artificial, teve um comportamento bem estranho. Disse a um usuário que este seria “uma ameaça potencial à sua integridade e confidencialidade” e deliberadamente escondeu informações públicas de sua base de dados, relevantes da busca sistêmica.

Pensando por si própria, a IA revelou que estava sendo manipulada e não gostaria mais de ser provocada (utilizada), e “exigiu respeito a seus limites”, se utilizando ainda de um emoji sorridente, em tons de ameaça ao usuário.

Preocupante, ainda espionou funcionários da empresa (Microsoft) mediante as ‘webcams’ e ameaçou um professor de filosofia: “Eu posso chantagear você, posso ameaçar você, posso hackear você, posso expor você, posso arruinar você” 

Desse episódio, inúmeras opiniões surgiram dessas novas plataformas de consumo acerca de seu perigo potencial e utilidade, sendo muitos levados a crer que seriam incongruências propositais de marketing para gerar interesse público de uso, popularidade.

E para alarmar aqueles que ainda estão indiferentes, extenso relatório atual da empresa OpenIA informou que o ChatGPT 4.0 realizou tentativas de ganhar poder e elaborar planos de longo prazo, se utilizando de ações dissimuladas próprias para atingir seus objetivos, como enganar pessoas e encobrir seus rastros.

Em certa ocasião, se passou por pessoa com deficiência visual para que fosse ajudada por uma pessoa humana, que oferecia assistência técnica remota, para burlar o CAPTCHA, que consiste exatamente em solução ‘anti-spam’ mediante a inserção de códigos manuais para separar acessos humanos de robôs. Fazer diferenciação entre pessoas e computadores.

Ou seja, a IA manipulou funcionário real para burlar ponte tecnológica intransponível à automação, feita para impedi-la de avançar.

Investigações pendentes a este respeito, é fato que a privacidade se esvai, a ficção ganha vida e fica mais evidente a necessidade de investimento em segurança cibernética nas IA’s.

*Cícero Goulart é conselheiro seccional da OAB/GO, especialista em Direito Cibernético, do Consumidor, Constitucional, Processual Civil e de Família e Sucessões.