A ideia de que sistemas de Inteligência Artificial (IA) podem ter características parecidas com as humanas não é nova. Com o papel crescente dos Modelos de Linguagem de Grande Porte (LLMs) na sociedade, muitos pesquisadores começaram a estudar a psicologia por trás desses modelos. Por exemplo, há pesquisas que investigam se os LLMs realmente entendem a linguagem, se conseguem distinguir diferentes moralidades e personalidades, e até se podem aprender dilemas éticos.

    Os Modelos de Linguagem, como o GPT-3, revelaram características interessantes. Um estudo indicou que ele apresenta uma “personalidade média” e que seus valores variam em importância. Comentando sobre isso, outro pesquisador destacou que os LLMs podem ser considerados modelos computacionais de seres humanos. Assim como economistas utilizam modelos teóricos para entender comportamentos, os LLMs podem ser analisados de uma forma semelhante.

    Além disso, descobriu-se que esses modelos têm a habilidade de atribuir crenças a outras entidades, algo chamado de Teoria da Mente. Pesquisas mais recentes indicam sinais de inteligência geral no GPT-4, que foi treinado com uma enorme quantidade de dados e poder computacional. Alguns cientistas sociais até sugerem que esses modelos poderiam substituir participantes humanos em certas pesquisas psicológicas.

    Na literatura sobre a psicologia dos LLMs, muitos estudos apontam que esses sistemas reagem de maneira semelhante aos seres humanos, tanto em cognição quanto em atitudes. O GPT-4, por exemplo, é descrito como tendo um desempenho comparável ao humano em várias tarefas complexas. Isso gera perguntas sobre quão bem ele realmente entende a natureza humana.

    Os pesquisadores usam terminologias parecidas para comparar LLMs e seres humanos. Um estudo mostrou que a capacidade de decisão econômica dos LLMs é semelhante à dos humanos, e outro destacou que o GPT-3 apresenta características de personalidade parecidas com amostras humanas. No entanto, esse discurso pode levar a uma generalização sobre os humanos como um todo, sem considerar a diversidade existente.

    Surpreendentemente, as pesquisas mais relevantes sobre LLMs muitas vezes esquecem a diversidade psicológica que existe entre os humanos. Estudos mostram que as populações variam significativamente em aspectos psicológicos, como preferências sociais, cooperação e moralidade. Por exemplo, populações classificadas como WEIRD (Ocidental, Educada, Industrializada, Rica e Democrática) se comportam de forma diferente em comparação a outras culturas, sendo mais individualistas e menos conformistas.

    Embora se acredite que as funções cognitivas básicas não variem muito entre os humanos, dados sobre ilusões visuais e raciocínio espacial indicam que sim, há diversidade. Isso se estende à linguagem, onde a forma como diferentes culturas utilizam linguagens pode influenciar processos cognitivos de forma significativa. Isso mostra que as características humanas não podem ser reduzidas a uma única narrativa.

    Se a cultura realmente influencia a psicologia, a questão agora é: quais humanos estão representados nos dados que os LLMs usam para aprendizado? Esses modelos são treinados com enormes quantidades de texto, mas a origem desses dados muitas vezes é tendenciosa, favorecendo o grupo WEIRD, já que a maioria da população mundial não está representada.

    As Nações Unidas estimam que cerca de metade da população global não terá acesso à internet em 2023. Esse número se agrava com o fato de que os países com menos recursos são os que menos têm conexão. Além disso, o inglês domina a representação nas tecnologias de linguagem, fazendo com que muitos comportamentos e perspectivas fiquem de fora do treinamento dos LLMs.

    As empresas de IA fazem tentativas de eliminar viés em seus modelos, para que não produzam conteúdo prejudicial. Mas, a forma como esse conteúdo é moderado depende de quais normas culturais estão sendo consideradas. As percepções do que é “prejudicial” mudam bastante entre sociedades. Isso gera a necessidade de se perguntar quais humanos estão sendo usados nos dados de treinamento e nos processos que definem o que é aceitável ou não.

    A necessidade de entender a psicologia dos LLMs é reconhecida em várias áreas, mas também é importante avaliar a diversidade cultural e linguística que faltam nos comportamentos desses modelos. Para isso, usamos várias ferramentas psicométricas para investigar os LLMs.

    Em primeiro lugar, utilizamos a World Values Survey, que é uma das mais abrangentes bases de dados sobre valores e crenças. Isso nos ajuda a comparar os LLMs com a variação psicológica que existe na população humana atual. Em segundo lugar, com diferentes tarefas cognitivas, nossa pesquisa mostra que os LLMs processam informações de forma que ainda reflete a perspectiva WEIRD.

    Por fim, foi revelado que não só os LLMs são psicologicamente WEIRD, mas que eles veem o ser humano médio a partir de uma lente que também é tendenciosa para essa mesma categoria. Isso significa que a maioria das representações humanas e suas experiências ficam de fora da formação desses modelos.

    Entender essa dinâmica é vital, especialmente em um mundo onde a tecnologia está se tornando cada vez mais parte do cotidiano. A diversidade humana é vasta e complexa, e essa diversidade precisa ser levada em conta quando falamos sobre IA e seu impacto na sociedade. É um tema que precisa de discussão e reflexão, com envolvimento de várias vozes e perspectivas.

    Share.

    Formado em Publicidade e Propaganda pela UFG, Nathan começou sua carreira como design freelancer e depois entrou em uma agência em Goiânia. Foi designer gráfico e um dos pensadores no uso de drones em filmagens no estado de Goiás. Hoje em dia, se dedica a dar consultorias para empresas que querem fortalecer seu marketing.