Um número crescente de testemunhos alerta sobre um fenômeno que ocorre quando algumas pessoas discutem com os chatbots. Eles criam um círculo vicioso com as idéias mais estranhas, alimentando Puffs ilusórios. Os especialistas estão preocupados que possam piorar a situação e até ser o gatilho.
No mês passado, uma nova tendência fez o zumbido Redes sociaisRedes sociaisonde os usuários compartilharam histórias de pessoas treinadas em Puffs Delusional por Chatbots. Depois disso, a mídia Futurismo recebeu um grande número de testemunhos semelhantes e decidiu chamar vários especialistas, incluindo a Dra. Nina Vasan, psiquiatra da Universidade de Stanford, nos Estados Unidos, para ter uma opinião profissional sobre o assunto.
Muitos usuários que saem nesses delírios pensam que descobriram uma nova verdade, chegando ao ponto de acreditar no guru de uma nova religião ou que salvarão o planeta, encorajado por ChatgptChatgpt. Muitas vezes, os testemunhos indicam um uso bastante normal no início. Os problemas começam quando se aproximam de indivíduos mais marginais, como misticismo ou teorias da conspiração. As capturas de tela recebidas de diferentes trocas mostram um ” IAIA Incrivelmente Flagorn, que acaba agravando a situaçãodisse a Dra. Nina Vasan. O que esses chatbots dizem está apenas piorando os delírios e causar enormes danos ».
O chatbot, um gatilho para ilusões?
Devido à falta de estudos sobre esses sopros ilusórios especificamente ligados ao chatgpt e outros chatbots, é impossível medir a extensão do fenômeno, mas seu número parece crescer rapidamente. Recentemente, R/Acelere, um subreddit muito pró-II, foi forçado a proibir qualquer publicação que contenha esse tipo de delírio. Esses assuntos são conhecidos como ” Esquizoposter “(Schizo Publicator) ou” Uivo neural (Um efeito neuronal de Larsen), devido ao fato de ser um círculo vicioso em que o paciente e o chatbot se encontram demais no delírio.
De acordo com o Dr. Ragy Girgis, psiquiatra da Universidade da Colômbia e especialista em psicosepsicoseo chatbot pode ser o gatilho para uma pessoa vulnerável e desempenhar o papel de pressãopressão social. A maneira como o chatgpt interage com os usuários é inapropriado para alguém com um distúrbio psicótico. E o problema pode piorar rapidamente, especialmente quando um número crescente de pessoas usa o ChatGPT como terapeuta quando ele é capaz de dar conselhos muito ruins. Uma pessoa testemunhou que o chatbot convenceu sua irmã, sofrendo de esquizofreniaesquizofreniaque ela não era esquizofrênica. Ela então parou seu tratamento e declarou que o chatbot era seu melhor amigo …
Um problema conhecido no Openai
No final de abril, o Openai retirou uma atualização que tornou o GPT-4o lisonjeiro e prestativo, em uma palavra de Flagorn. Mas os problemas descritos nos testemunhos não são específicos para esse pequeno “hic”, que durou apenas alguns dias. É o comportamento geral do chatbot que seria problemático. Além disso, o OpenAI havia publicado um estudo em março, mostrando que os usuários diários podem apresentar uso problemático e sinais devíciovícioe que os chatbots não são completamente inofensivos do ponto de vista da saúde mental.
Estamos enfrentando um pequeno número de casos, amplificados por redes sociais ou é o começo de um fenômeno maior? De qualquer forma, com vários usuários em crescimento, o número de casos pode aumentar. O OpenAI indica trabalhar em sua IA para limitar o comportamento de Flagorn, mas isso será suficiente?