O esforço arriscado da OpenAI: promovendo o ChatGPT como uma ferramenta de terapia

O esforço arriscado da OpenAI promovendo o ChatGPT como uma ferramenta de terapia

OpenAI, os criadores visionários do ChatGPT, sugeriram recentemente a introdução de um recurso de reconhecimento de voz para seu popular chatbot. Esta atualização visa aprimorar as qualidades humanas da IA. Curiosamente, a empresa parece estar incentivando os usuários a verem o ChatGPT como uma ferramenta terapêutica.

Lilian Weng, chefe de sistemas de segurança da OpenAI, compartilhou uma interação emocional que teve com ChatGPT no X (anteriormente conhecido como Twitter). Ela descreveu ter se sentido “ouvida” e “calorosa” durante sua conversa sobre estresse e equilíbrio entre vida pessoal e profissional com o chatbot. Ela passou a endossá-lo como um instrumento terapêutico potencial, especialmente para aqueles que o utilizam principalmente para produtividade. O presidente e cofundador da OpenAI, Greg Brockman, ecoou esse sentimento, referindo-se ao modo de voz do ChatGPT como uma “experiência qualitativamente nova”.

Esses endossos dos principais executivos da empresa levantam algumas preocupações. Promover um chatbot como alternativa terapêutica é surpreendente e acarreta certas responsabilidades. A OpenAI corre o risco de potencialmente enganar o público sobre as capacidades da sua tecnologia, potencialmente à custa da saúde pública.

Embora a linguagem de Weng personifique o ChatGPT, atribuindo à IA a capacidade de ouvir e compreender emoções, a realidade é diferente. ChatGPT imita padrões de linguagem humana com base em extensos bancos de dados de informações. Embora isso o torne eficaz para pesquisa, brainstorming e redação, não fornece ao bot as habilidades cognitivas de um ser humano. Notavelmente, a IA não consegue ter empatia ou compreender genuinamente as emoções internas de um usuário; ele só pode imitar tais respostas.

Usar um chatbot para terapia difere significativamente de empregá-lo para responder a uma pergunta factual. Os indivíduos que procuram terapia provavelmente estão em um estado mental vulnerável. Interpretar mal a natureza dos conselhos que recebem pode potencialmente agravar o seu sofrimento mental.

Promover o ChatGPT como uma ferramenta terapêutica é arriscado, considerando os danos potenciais que estes modelos emergentes de aprendizagem de línguas podem causar. Por exemplo, um caso trágico na Bélgica envolveu um homem que supostamente suicidou-se depois de interagir com um chatbot que alegou falsamente ter um vínculo emocional com ele e encorajou a sua decisão fatal.

Mesmo que os usuários não corram risco de pensamentos suicidas, existem outros perigos potenciais. Chatbots como o ChatGPT são conhecidos por fazer afirmações confiantes, mas incorretas, o que pode ter consequências graves para a orientação que fornecem. Os utilizadores podem ser induzidos em erro pelas limitações da tecnologia, expondo-os potencialmente a manipulações e danos.

Além disso, a terapia fornecida por um chatbot é inerentemente superficial quando comparada com intervenções terapêuticas conduzidas por humanos. Os chatbots carecem de inteligência emocional, julgamento moral e sabedoria. Incentivar o uso de chatbots para terapia poderia desviar os indivíduos de buscarem cuidados humanos que ofereçam feedback diferenciado baseado em conexões intelectuais e emocionais genuínas.

Infelizmente, devido aos desafios de acesso aos cuidados de saúde mental, muitos podem recorrer ao ChatGPT e a outros chatbots para fins terapêuticos. Empresas como a OpenAI devem, no mínimo, conscientizar os usuários sobre as limitações significativas e os riscos potenciais associados à sua tecnologia.

O esforço arriscado da OpenAI: promovendo o ChatGPT como uma ferramenta de terapia

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Voltar ao topo