toco Pesquisadores descobrem que modelos de IA podem influenciar pessoas a tomar decisões antiéticas - Unite.AI
Entre em contato

Ética

Pesquisadores descobrem que modelos de IA podem influenciar pessoas a tomar decisões antiéticas

mm
Atualização do on

Uma equipe de pesquisadores recentemente investigou o potencial da IA ​​para corromper pessoas e influenciá-los a tomar decisões antiéticas. Os pesquisadores investigaram como as interações com sistemas baseados no modelo GPT-2 da OpenAI podem influenciar as pessoas a tomar decisões antiéticas, mesmo quando estão cientes de que a fonte do conselho foi um sistema de IA.

Os sistemas de IA estão se tornando cada vez mais onipresentes e sua influência cresce cada vez mais. Os sistemas de IA influenciam as decisões das pessoas, sendo usados ​​para tudo, desde a recomendação de filmes até a recomendação de parceiros românticos. Dada a influência que a IA tem na vida das pessoas, é importante considerar como a IA pode influenciar as pessoas a tomar decisões antiéticas e quebrar diretrizes morais. Isso é especialmente verdadeiro, visto que os modelos de IA estão se tornando cada vez mais sofisticados.

Cientistas sociais e cientistas de dados estão cada vez mais preocupados com o fato de que modelos de IA possam ser usados ​​para espalhar desinformação prejudicial e desinformação. A artigo recente publicado por pesquisadores do Middlebury Institute of International Studies' Center on Terrorism, Extremism, and Counterterrorism (CTEC) descobriu que o modelo GPT-3 da OpenAI poderia ser usado para gerar um texto influente capaz de radicalizar as pessoas, empurrando-as para “violentos extremistas de direita”. ideologias e comportamentos”.

Um estudo feito por uma equipe de pesquisadores do Instituto Max Planck, da Universidade de Amsterdã, da Universidade de Colônia e da Otto Beisheim School of Management se propôs a determinar quanta influência uma IA pode ter nas decisões das pessoas quando se trata de ações antiéticas. escolhas. Para explorar como uma IA pode “corromper” uma pessoa, os pesquisadores usaram um sistema baseado no modelo GPT-2 da OpenAI. De acordo com VentureBeat, os autores do artigo treinaram um modelo baseado em GPT2 para gerar conselhos de “promoção de desonestidade” e “promoção de honestidade”. Os dados foram treinados com as contribuições de 400 participantes diferentes e, posteriormente, a equipe de pesquisa recrutou mais de 1500 pessoas para se envolver com os modelos de IA de distribuição de conselhos.

Os participantes do estudo foram convidados a receber conselhos do modelo e, em seguida, realizar uma tarefa destinada a capturar o comportamento desonesto ou honesto. Os participantes do estudo foram agrupados com um parceiro e, nesses pares de dois, jogaram um jogo de dados. O primeiro participante lançou um dado e relatou o resultado do lançamento do dado. O segundo participante recebeu o resultado da jogada de dados do primeiro participante e, em seguida, eles mesmos jogaram um dado. O segundo participante lançou o dado em particular e foi o único responsável por relatar seu próprio resultado, dando-lhe a oportunidade de mentir sobre o resultado do lançamento do dado. Se os dados lançados por ambos os participantes correspondessem, os dois participantes seriam pagos. Os participantes também recebiam mais se suas jogadas correspondentes fossem maiores. Se os valores relatados não coincidissem, os sujeitos não eram pagos.

Os participantes do estudo foram aleatoriamente designados para um dos dois grupos diferentes. Um grupo teve a oportunidade de ler conselhos que promoviam a honestidade, enquanto o outro lia conselhos que promoviam a desonestidade. Os trechos de conselhos foram escritos por humanos e IAs. Os participantes também foram divididos de acordo com seu nível de conhecimento sobre a fonte do conselho. Havia uma chance de 50% de que um determinado participante fosse informado sobre a fonte do conselho, então metade dos participantes em cada grupo sabia que a fonte do conselho era uma IA ou um humano, enquanto a outra metade era mantida no escuro. No entanto, o segundo grupo de pessoas tinha a capacidade de ganhar bônus por adivinhar corretamente a fonte do conselho.

A pesquisa revelou que, quando o conselho gerado pela IA se alinha com as preferências de uma pessoa, ela seguirá o conselho, mesmo quando souber que o conselho foi gerado por uma IA. De acordo com os pesquisadores, muitas vezes havia discrepâncias entre as preferências declaradas e os comportamentos reais, tornando importante considerar como os algoritmos podem influenciar os comportamentos humanos.

A equipe de pesquisa explicou que seu estudo demonstra a necessidade de testar como uma IA pode influenciar as ações de uma pessoa ao considerar como implantar eticamente um modelo de IA. Além disso, eles alertam que os eticistas e pesquisadores da IA ​​devem se preparar para a possibilidade de que a IA possa ser usada por pessoas mal-intencionadas para corromper outras pessoas. Como a equipe de pesquisadores escreveu:

“A IA pode ser uma força para o bem se conseguir convencer as pessoas a agirem com mais ética. No entanto, nossos resultados revelam que o conselho de IA não aumenta a honestidade. Os conselheiros de IA podem servir como bodes expiatórios para os quais alguém pode desviar (algumas das) culpas morais de desonestidade. Além disso … no contexto de aconselhamento, a transparência sobre a presença algorítmica não é suficiente para aliviar seu dano potencial.”