Los modelos de IA generativa como ChatGPT, DALL-E y Midjourney pueden distorsionar las creencias humanas al transmitir información falsa y sesgos estereotípicos, según Celeste Kidd y Abeba Birhane. El diseño de la IA generativa actual, que se centra en buscar y proporcionar información, puede dificultar que las personas cambien sus percepciones cuando se exponen a información falsa.
Los investigadores advierten que los modelos de IA generativa, incluidos ChatGPT, DALL-E y Midjourney, pueden distorsionar las creencias humanas al difundir información falsa y sesgada.
Impacto de la IA en la percepción humana
Los modelos de IA generativa como ChatGPT, DALL-E y Midjourney pueden distorsionar las creencias humanas al transmitir información falsa y sesgos estereotípicos, según los investigadores Celeste Kidd y Abeba Birhane. En su perspectiva, investigan cómo los estudios sobre psicología humana pueden arrojar luz sobre por qué la IA generativa tiene tanto poder para distorsionar las creencias humanas.
Sobreestimación de las capacidades de la IA
Argumentan que la percepción de la sociedad sobre las capacidades de los modelos de IA generativa se ha exagerado enormemente, lo que ha llevado a una creencia generalizada de que estos modelos superan las capacidades humanas. Las personas están intrínsecamente inclinadas a adoptar la información publicada por entidades informadas y confiables, como la IA generativa, a un ritmo más rápido y con más confianza.
El papel de la IA en la difusión de información falsa y sesgada
Estos modelos generativos de IA tienen el potencial de fabricar información falsa y sesgada que puede difundirse amplia y repetidamente, factores que en última instancia dictan hasta qué punto esa información puede arraigarse en las creencias de las personas. Los individuos son más susceptibles a la influencia cuando buscan información y tienden a adherirse firmemente a la información recibida.
Implicaciones para buscar y proporcionar información
El diseño actual de la IA generativa se ocupa en gran medida de buscar y proporcionar información. Como tal, puede representar un desafío importante para cambiar la forma de pensar de las personas expuestas a información falsa o sesgada a través de estos sistemas de IA, como sugieren Kidd y Birhane.
Necesidad de estudios interdisciplinarios
Los investigadores concluyen enfatizando una oportunidad crítica para realizar estudios interdisciplinarios para evaluar estos modelos. Sugieren medir los impactos de estos modelos en las creencias y los sesgos humanos antes y después de la exposición a la IA generativa. Esta es una oportunidad oportuna, especialmente considerando que estos sistemas se están adoptando e integrando cada vez más en diversas tecnologías cotidianas.
Referencia: «Cómo la IA puede distorsionar las creencias humanas: los modelos pueden transmitir sesgos y desinformación a los usuarios» por Celeste Kidd y Abeba Birhane, 22 de junio de 2023, Science.
DOI: 10.1126/ciencia.adi0248