Tecnología

El estudio encuentra Chatgpt refleja los sesgos de decisión humana en la mitad de las pruebas

Crédito: imagen generada por IA

¿Podemos realmente confiar en la IA para tomar mejores decisiones que los humanos? Un nuevo estudio dice … no siempre. Los investigadores han descubierto que el ChatGPT de OpenAi, uno de los modelos de IA más avanzados y populares, comete los mismos tipos de errores de toma de decisiones que los humanos en algunas situaciones, que muestran sesgos como la exceso de confianza de la falacia de los jugadores (los jugadores), que actúan inhumanas en otras (no sufren de descuidado base o caída de costo de costo de costo de costo)).

Publicado en la revista Manufacturing & Service Operations Management, el estudio revela que el chatGPT no solo los números crujientes, “piensa” de manera inquietantemente similar a los humanos, incluidos atajos mentales y puntos ciegos. Estos sesgos siguen siendo bastante estables en diferentes situaciones comerciales, pero pueden cambiar a medida que AI evoluciona de una versión a la siguiente.

AI: un asistente inteligente con defectos humanos

El estudio, “Un gerente y una IA entran en un bar: ¿ChatGPT toma decisiones sesgadas como nosotros?”, Puso ChatGPT a través de 18 pruebas de sesgo diferentes. ¿Los resultados?

La IA cae en las trampas de decisión humana: Chatgpt mostró sesgos como la aversión excesiva o de ambigüedad, y la falacia de conjunción (también conocida como el “problema de Linda”), en casi la mitad de las pruebas. La IA es excelente en matemáticas, pero lucha con las llamadas de juicio: se destaca en problemas lógicos y basados ​​en la probabilidad, pero tropieza cuando las decisiones requieren un razonamiento subjetivo. El sesgo no va a desaparecer, aunque el nuevo modelo GPT-4 es más preciso analíticamente que su predecesor, a veces mostró sesgos más fuertes en las tareas basadas en el juicio.

Por qué esto importa

Desde la contratación de empleo hasta las aprobaciones de préstamos, AI ya está dando forma a las principales decisiones en negocios y gobierno. Pero si AI imita los sesgos humanos, ¿podría reforzar las malas decisiones en lugar de arreglarlas?

“A medida que AI aprende de los datos humanos, también puede pensar como un humano, perseguidos y todo”, dice Yang Chen, autor principal y profesor asistente de la Western University. “Nuestra investigación muestra cuándo se usa AI para hacer llamadas de juicio, a veces emplea los mismos atajos mentales que las personas”.

El estudio encontró que ChatGPT tiende a:

Juega a lo seguro: AI evita el riesgo, incluso cuando las elecciones más riesgosas pueden dar mejores resultados. Sobreestimarse a sí mismo: Chatgpt supone que es más preciso de lo que realmente es. Busque la confirmación: AI favorece la información que respalde los supuestos existentes, en lugar de desafiarlos. Evite la ambigüedad: AI prefiere alternativas con más información y menos ambigüedad.

“Cuando una decisión tiene una respuesta correcta clara, la IA lo clava, es mejor para encontrar la fórmula correcta que la mayoría de las personas”, dice Anton Ovchinnikov de la Universidad de Queen. “Pero cuando se trata del juicio, la IA puede caer en las mismas trampas cognitivas que las personas”.

Entonces, ¿podemos confiar en la IA para tomar grandes decisiones?

Con los gobiernos en todo el mundo trabajando en las regulaciones de IA, el estudio plantea una pregunta urgente: ¿deberíamos confiar en la IA para hacer llamadas importantes cuando puede ser tan sesgado como los humanos?

“La IA no es un árbitro neutral”, dice Samuel Kirshner de UNSW Business School. “Si se deja sin control, podría no solucionar problemas de toma de decisiones, en realidad podría empeorarlos”.

Los investigadores dicen que es por eso que las empresas y los formuladores de políticas necesitan monitorear las decisiones de IA tan de cerca como lo harían con un tomador de decisiones humano.

“La IA debe ser tratada como un empleado que toma decisiones importantes: necesita supervisión y pautas éticas”, dice Meena Andiappan de la Universidad McMaster. “De lo contrario, corremos el riesgo de automatizar el pensamiento defectuoso en lugar de mejorarlo”.

¿Qué sigue?

Los autores del estudio recomiendan auditorías regulares de las decisiones impulsadas por la IA y la refinación de sistemas de IA para reducir los sesgos. Con la influencia de la IA en crecimiento, asegurarse de que mejore la toma de decisiones, en lugar de solo replicar los defectos humanos, será clave.

“La evolución de GPT-3.5 a 4.0 sugiere que los últimos modelos se están volviendo más humanos en algunas áreas, pero menos humanos pero más precisos en otros”, dice Tracy Jenkin de la Universidad de Queen. “Los gerentes deben evaluar cómo se desempeñan diferentes modelos en sus casos de uso de la toma de decisiones y reevaluar regularmente para evitar sorpresas. Algunos casos de uso necesitarán un refinamiento de modelo significativo”.

Más información: Yang Chen et al, un gerente y una IA entran en un bar: ¿ChatGPT toma decisiones sesgadas como We Do?, Gestión de operaciones de fabricación y servicio (2025). Doi: 10.1287/msom.2023.0279

Proporcionado por el Instituto de Investigación de Operaciones y las Ciencias de la Gestión

Cita: AI piensa como nosotros, faltas y todo: el estudio encuentra los reflejos de chatgpt sesgos de decisión humana en la mitad de las pruebas (2025, 1 de abril) recuperado el 1 de abril de 2025 de https://techxplore.com/news/2025-04-ai-flaws-chatgpt-mirrors-human.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Back to top button