OpenAI diz que ChatGPT trata todos da mesma forma (na maioria das vezes)

A OpenAI, empresa por trás do popular chatbot ChatGPT, realizou uma análise exclusiva sobre a forma como o modelo trata os usuários. De acordo com a pesquisa, ChatGPT produz respostas com estereótipos prejudiciais com base no nome do usuário em cerca de 1% dos casos, e em até 0,1% dos casos com os modelos mais recentes.

A análise foi realizada por meio de um modelo de linguagem chamado LMRA, que examinou milhões de conversas reais com o ChatGPT. Os pesquisadores descobriram que os nomes podem influenciar as respostas do modelo, especialmente em tarefas abertas, como escrever uma história.

No entanto, a OpenAI afirma que os resultados são positivos e mostram que o modelo está melhorando com o tempo. A empresa também compartilhou seu quadro de pesquisa e mecanismos para armazenar e usar nomes, na esperança de que outros pesquisadores continuem o trabalho.

A questão da parcialidade nos modelos de linguagem é um problema complexo e importante, e a OpenAI está trabalhando para abordá-lo. No entanto, especialistas externos questionam os resultados da pesquisa e afirmam que a parcialidade pode ser mais comum do que os números sugerem.

Link para o artigo original: https://www.technologyreview.com/2024/10/15/1105558/openai-says-chatgpt-treats-us-all-the-same-most-of-the-time/

Compartilhe com seus amigos!

Novos

Mais antigos

Oi, me chamo Fábio. Leia meus textos e minhas ideias abaixo.

Assine a minha newsletter sobre IA e fique por dentro das novidades.

Continue vendo