Estudo revela preconceito político nas respostas do ChatGPT, levantando preocupações sobre a influência da IA

Estudo revela preconceito político nas respostas do ChatGPT, levantando preocupações sobre a influência da IA

Um estudo recente conduzido por pesquisadores da Universidade de East Anglia, no Reino Unido, chamou a atenção para um potencial preconceito político incorporado no ChatGPT da OpenAI. Esta descoberta destaca os desafios constantes que as empresas de inteligência artificial enfrentam no controlo do comportamento dos seus chatbots, especialmente porque estes bots desempenham papéis cada vez mais importantes na vida de milhões de utilizadores em todo o mundo.

Estudo revela preconceito político nas respostas do ChatGPT, levantando preocupações sobre a influência da IA

Neste estudo, o ChatGPT realizou uma pesquisa sobre crenças políticas, com foco em apoiadores de partidos liberais nos Estados Unidos, no Reino Unido e no Brasil. As respostas foram comparadas com as geradas sem qualquer estímulo político específico, revelando um preconceito político consistente e perceptível. O estudo identificou uma inclinação significativa em relação aos Democratas nos EUA, a Lula no Brasil e ao Partido Trabalhista no Reino Unido, indicando um preconceito sistemático nas suas respostas.

Estes resultados ecoam um conjunto crescente de pesquisas que destaca como, apesar dos esforços concentrados para neutralizar preconceitos durante a fase de design, chatbots de IA como o ChatGPT inevitavelmente absorvem suposições e crenças.

Esta questão ganha importância à medida que os chatbots se tornam mais profundamente integrados nas rotinas diárias. Com a aproximação das eleições presidenciais de 2024 nos Estados Unidos, os chatbots estão assumindo funções na vida das pessoas que vão além da simples assistência, ajudando a resumir documentos, responder perguntas e até mesmo contribuir em tarefas de redação profissional e pessoal. Com plataformas como o Google usando chatbots para responder diretamente a consultas de pesquisa e campanhas políticas utilizando-os para geração de conteúdo, surgem preocupações quanto ao seu impacto potencial na percepção do público e até mesmo nos resultados eleitorais.

Embora o ChatGPT afirme sua falta de opiniões políticas ou preconceitos em relação aos usuários, o principal autor do estudo, Fabio Motoki, sugere o contrário. Estes preconceitos descobertos podem potencialmente minar a confiança do público e influenciar inadvertidamente os processos políticos.

Ainda não foram obtidas respostas das principais empresas de IA, incluindo Meta, Google e OpenAI, em relação a estas descobertas. A OpenAI afirmou anteriormente que quaisquer preconceitos encontrados em seus modelos de IA não são intencionais e não são indicativos de um recurso deliberado.

Este estudo destaca o complexo desafio de mitigar preconceitos em modelos de IA, particularmente na era dos chatbots generativos. Esses chatbots, incluindo ChatGPT, Bard do Google e Bing da Microsoft, são construídos sobre vastos modelos de linguagem que processam dados extensos da Internet, o que muitas vezes reflete os preconceitos e pontos de vista predominantes online.

Além disso, estes chatbots tornaram-se figuras centrais nas discussões sobre política, tecnologia e redes sociais. O ChatGPT, por exemplo, enfrentou alegações de parcialidade logo após o seu lançamento, com alegações de favorecer perspectivas liberais. Isto sublinha a conversa mais ampla sobre como a tecnologia e as plataformas de redes sociais podem influenciar os resultados políticos e a polarização social.

Os esforços para resolver estas questões estão em curso, com os investigadores a explorar ativamente métodos para detetar e mitigar preconceitos nas respostas do chatbot. Uma abordagem proposta envolve uma camada adicional que identifica linguagem tendenciosa e a substitui por alternativas neutras. No entanto, dada a natureza generalizada da Internet e a intrincada tapeçaria de preconceitos que ela abrange, alcançar a neutralidade perfeita continua a ser um objectivo desafiador.

Em conclusão, este estudo ilumina as complexidades dos preconceitos da IA e o seu potencial impacto no discurso político e na tomada de decisões. Serve como um lembrete de que, embora a tecnologia de IA ofereça possibilidades excitantes, também acarreta responsabilidades significativas na gestão de consequências não intencionais.

Estudo revela preconceito político nas respostas do ChatGPT, levantando preocupações sobre a influência da IA

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Voltar ao topo