Tecnología

La gente confía en el asesoramiento legal generado por ChatGPT más que un abogado: nuevo estudio

Crédito: Dominio público de Pixabay/CC0

Las personas que no son expertos legales están más dispuestos a confiar en el asesoramiento legal proporcionado por ChatGPT que por abogados reales, al menos, cuando no saben cuál de los dos proporcionaron el consejo. Ese es el hallazgo clave de nuestra nueva investigación, que destaca algunas preocupaciones importantes sobre la forma en que el público depende cada vez más del contenido generado por IA. También descubrimos que el público tiene al menos cierta capacidad para identificar si el consejo provino de ChatGPT o un abogado humano.

Las herramientas de IA como ChatGPT y otros modelos de idiomas grandes (LLM) están llegando a nuestra vida cotidiana. Prometen proporcionar respuestas rápidas, generar ideas, diagnosticar síntomas médicos e incluso ayudar con las preguntas legales al proporcionar asesoramiento legal concreto.

Pero se sabe que los LLM crean las llamadas “alucinaciones”, es decir, salidas que contienen contenido inexacto o no sensible. Esto significa que existe un riesgo real asociado con las personas que confían demasiado en ellos, particularmente en dominios de alto riesgo como la ley. Los LLM tienden a presentar consejos con confianza, lo que dificulta que las personas distinguen los buenos consejos de los malos consejos decisivos.

Realizamos tres experimentos en un total de 288 personas. En los primeros dos experimentos, los participantes recibieron asesoramiento legal y les preguntaron sobre qué estarían dispuestos a actuar. Cuando la gente no sabía si el consejo había venido de un abogado o una IA, descubrimos que estaban más dispuestos a confiar en el consejo generado por la IA. Esto significa que si un LLM brinda asesoramiento legal sin revelar su naturaleza, las personas pueden tomarlo como un hecho y preferir que los abogados de los abogados, posiblemente sean cuestionando su precisión.

Incluso cuando se les dijo a los participantes qué consejo provenía de un abogado y cuál era generado por IA, descubrimos que estaban dispuestos a seguir a Chatgpt tanto como el abogado.

Una razón por la cual los LLM pueden ser favorecidos, como encontramos en nuestro estudio, es que usan un lenguaje más complejo. Por otro lado, los abogados reales tendían a usar un lenguaje más simple pero usan más palabras en sus respuestas.

El tercer experimento investigó si los participantes podrían distinguir entre el contenido generado por LLM y el abogado cuando no se les revela la fuente. La buena noticia es que pueden, pero no por mucho.

En nuestra tarea, la adivinación aleatoria habría producido una puntuación de 0.5, mientras que la discriminación perfecta habría producido una puntuación de 1.0. En promedio, los participantes obtuvieron 0.59, lo que indica un rendimiento que fue ligeramente mejor que la adivinanza aleatoria, pero aún relativamente débil.

Regulación y alfabetización de IA

Este es un momento crucial para una investigación como la nuestra, ya que los sistemas con AI como chatbots y LLM se están integrando cada vez más en la vida cotidiana. Alexa o Google Home pueden actuar como asistente de origen, mientras que los sistemas habilitados para AI pueden ayudar con tareas complejas como compras en línea, resumir textos legales o generar registros médicos.

Sin embargo, esto viene con riesgos significativos de tomar decisiones potencialmente alteradas que se guían por información errónea alucinada. En el caso legal, el asesoramiento alucinado generado por IA podría causar complicaciones innecesarias o incluso abortos involuntarios de justicia.

Es por eso que nunca ha sido más importante regular adecuadamente la IA. Los intentos hasta ahora incluyen la Ley de AI de la UE, el artículo 50.9 de los cuales establece que los IA generadores de texto deben garantizar que sus salidas estén “marcadas en un formato legible por máquina y detectables como generadas o manipuladas artificialmente”.

Pero esto es solo una parte de la solución. También tendremos que mejorar la alfabetización de IA para que el público esté mejor capaz de evaluar críticamente el contenido. Cuando las personas puedan reconocer mejor la IA, podrán tomar decisiones más informadas.

Esto significa que debemos aprender a cuestionar la fuente de consejos, comprender las capacidades y limitaciones de la IA, y enfatizar el uso del pensamiento crítico y el sentido común al interactuar con el contenido generado por IA. En términos prácticos, esto significa verificación cruzada de información importante con fuentes de confianza e incluir expertos humanos para prevenir la exceso de información sobre la información generada por IA.

En el caso del asesoramiento legal, puede estar bien usar IA para algunas preguntas iniciales: “¿Cuáles son mis opciones aquí? ¿En qué necesito leer? ¿Hay casos similares al mío o qué área de la ley es esta?” Pero es importante verificar el consejo con un abogado humano mucho antes de terminar en la corte o actuar sobre cualquier cosa generada por un LLM.

La IA puede ser una herramienta valiosa, pero debemos usarla de manera responsable. Al utilizar un enfoque de dos puntas que se centra en la regulación y la alfabetización de IA, podemos aprovechar sus beneficios y minimizar sus riesgos.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.

Cita: Las personas confían en el asesoramiento legal generado por ChatGPT más que un abogado: nuevo estudio (2025, 28 de abril) recuperado el 28 de abril de 2025 de https://techxplore.com/news/2025-04-people-legal-advice-generated-chatgpt.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Back to top button