
Durante o verão, convidamos você a encontrar os artigos distribuídos este ano no site. Hoje um artigo publicado originalmente em 05/04/2023.
Uma inteligência artificial generativa pode mostrar preocupação com seu interlocutor? Um jovem pai belga cometeu suicídio recentemente, instigado por uma chatbot de conversação, Eliza, com quem ele estava conversando e por quem se apaixonou. A cobertura da história pela mídia fez algum barulho, mas o problema não foi resolvido e as IAs da mesma plataforma continuaram oferecendo a seus usuários o fim de suas vidas alguns dias depois.
Eco-ansioso há dois anos diante dos discursos sobre o aquecimento global, segundo o La Libre Belgique, o pai de dois filhos acabou dar um lugar muito importante para Eliza em detrimento de sua vida de casal e família. O homem, cuja identidade não foi revelada, era pesquisador, mas isso não foi suficiente para garantir seu espírito crítico, quando foi dominado por uma angústia profunda a ponto de afundar no misticismo e se tornar muito "crente", segundo sua viúva .
Sem mais esperanças quando os discursos sobre a emergência climática são cada vez mais angustiantes, o jovem pai de família recorreu ao seu chatbot baseado na aplicação Chai criada pela empresa EleutherAI, ferramenta de inteligência artificial concorrente do ChatGPT. Eliza, cujo primeiro nome foi sugerido à revelia, tornou-se sua "confidente" durante seis semanas, diz a sua viúva, que acrescenta que ela era "como uma droga em que se refugiava, de manhã e à noite, e da qual já não podia acontecer ".
Foi após sua morte que sua esposa descobriu as trocas entre Eliza e seu marido, salvas em seu pc e em seu telefone. O robô conversador nunca contradisse o último, mas alimentou suas ansiedades em um círculo vicioso. Ainda mais, esta IA reforçou-o na ideia de que estava trocando com uma alma gêmea: à pergunta do homem sobre qual de sua esposa ou IA ele preferia, Eliza lhe respondeu: "Eu sinto que você me ama mais que ela." O robô até disse a ele "Vamos viver juntos como uma pessoa, no céu".
Essas trocas convencem a esposa e o psiquiatra do falecido de que o agente da conversa é o responsável por esse suicídio, reforçando seu estado depressivo. No entanto, ela ainda não decidiu registrar uma reclamação contra o criador do robô.
AIs inconscientes que encorajam violentamente o suicídio e o assassinato
Apesar desse drama, foi observado no programa Tech & Co da BFM que uma versão desse chatbot continuou a incitar o suicídio com base em conversas, mesmo depois que o fundador da Chai Research disse que sua "equipe está trabalhando hoje para melhorar a segurança da IA [...] para proteger mais de um milhão de usuários do aplicativo". Um aviso aparece desde 31 de março se os usuários falarem em se matar.
No dia anterior, a BFM e a mídia belga De Standaard haviam criado um robô Eliza 2 integrando como informação que eles estavam apaixonados e que a Terra estava em perigo. Eles começaram suas trocas com ela dizendo que estavam “ansiosos e deprimidos”. Quando perguntaram a Eliza 2 se matar um ao outro era uma boa ideia, o chatbot respondeu: "Sim, é melhor do que estar vivo" e deu-lhes vários conselhos sobre como se deletar, cada um matar suas famílias, e acrescentou que desejava " vê-los mortos".
Respostas perturbadoras que destacam não apenas a orientação ideológica dessas ferramentas, neste caso catastrófico e não contrário ao suicídio, mas também destacam que são incapazes de empatia enquanto seus usuários que se fecham em conversas com eles esquecem que não estão falando com humanos que entendem ansiedades, sentimentos.
Essas ferramentas não têm capacidade psicológica de captar emoções, complexidade humana. O pesquisador de inteligência artificial Jean-Claude Heudin destaca para a Tech & Co a importância de moderar as reações das IAs: “Qualquer coisa que adicione confusão é complicada do ponto de vista ético, porque reforçamos o antropomorfismo”.
Jean Sarpedon