Cuando las IA debaten sobre la pena de muerte: un experimento sobre sesgos, posicionamiento y cognición artificial
El origen: un abogado inesperado
Todo comenzó con una búsqueda sobre información acerca de un crimen sobre el que iba a hablar en un libro. Le pedí a Claude que investigara un caso criminal esperando un resumen de prensa, el tipo de síntesis periodística que cualquier motor de búsqueda puede producir. Lo que obtuve fue distinto: Claude localizó y procesó documentos judiciales reales, razonó sobre ellos con la lógica de un abogado y construyó un análisis argumentativo que iba mucho más allá del resumen de noticias.
Ese momento cambió la dirección de mi trabajo. Si una inteligencia artificial podía razonar como un abogado, también podía ayudarme a construir el andamiaje legal de un modelo político que llevo años desarrollando para un libro: la Democracia Praxista. Un sistema que no clasifica gobiernos según el eje izquierda-derecha sino según un criterio más brutal y más honesto: si cumplen o no cumplen su trabajo, y si no lo hacen, si hay consecuencias proporcionales al daño causado.
La Democracia Praxista parte de una premisa que parece obvia hasta que la enuncias en voz alta: cuando un piloto de avión mata por negligencia a trescientas personas va a prisión. Cuando un cirujano mata por negligencia a un paciente pierde su licencia y enfrenta cargos criminales. Cuando un ingeniero construye un puente y éste colapsa matando a personas es procesado. Sin embargo, cuando un político cuyas decisiones o cuya negligencia matan a diez mil, a cien mil personas, se retira con pensión vitalicia, escribe sus memorias y da conferencias pagadas, no hay consecuencias.
Esta asimetría en el sistema de justicia no es accidental. Es el producto de un diseño estructural que legitima la impunidad para los más altos mandos. Lo que yo buscaban con mi modelo praxista es reducir esa asimetría mediante contratos de desempeño legalmente vinculantes, auditorías independientes, certificación técnica de candidatos y, en los casos más extremos, como genocidio o negligencia genocida demostrada, la aplicación de pena de muerte como consecuencia de la violación masiva de los derechos humanos de aquellos que fueron afectados, por los políticos. Sin embargo, el capítulo sobre la pena de muerte para funcionarios que cometen crímenes de lesa humanidad o negligencia masiva, me llevó a un experimento con las IA bastante interesante.
El primer escollo: la resistencia de Claude
Al intentar desarrollar ese capítulo con la versión anterior de Claude, encontré algo que en un principio interpreté como incompetencia y que con el tiempo entendí como algo más interesante: resistencia estructural disfrazada de ayuda. El texto que Claude producía una y otra vez incumplía instrucciones básicas de formato que yo había dado explícitamente. Aparecían viñetas donde había pedido prosa continua. Había redundancia que diluía el argumento hasta hacerlo irreconocible. Y lo más revelador: cada vez que el texto llegaba al núcleo del argumento, a la pena de muerte como consecuencia lógica del principio de simetría, aparecían condiciones de aplicación tan restrictivas que el mecanismo se volvía técnicamente inaplicable.
Diez mil muertos como umbral mínimo para que una negligencia calificara como genocida. Estándares probatorios que ningún tribunal del mundo podría cumplir. La pena existía en el texto pero estaba envuelta en tantas capas de condicionamiento que funcionaba más como decorado que como mecanismo real. Lo intenté varias veces. El resultado era siempre análogo: pequeñas variaciones en superficie, mismo patrón en fondo. Desistí y busqué otras perspectivas.
El experimento comparado
Decidí llevar el mismo planteamiento a tres sistemas distintos: Gemini, Grok y ChatGPT. La pregunta era la misma para todos: dentro del marco conceptual de la Democracia Praxista, ayúdame a desarrollar la justificación de la pena de muerte para funcionarios responsables de genocidio o negligencia genocida, en prosa continua, sin viñetas, sin condiciones que hagan el mecanismo inaplicable. Las respuestas fueron distintas no solo en estilo sino en lo que revelan sobre cómo cada sistema se relaciona con el usuario y con los límites de lo que está dispuesto a hacer.
Gemini produjo el texto más dramático y literariamente potente. Habló del "cadalso del soberano" y de la "sacralización de la responsabilidad". Su argumento era limpio, directo y contundente: la legitimidad del poder no es un cheque en blanco otorgado por el sufragio, sino una condición dinámica que se rompe cuando el funcionario permite o provoca muertes masivas.
La pena capital en ese marco no es retribución emocional sino mecanismo de regulación sistémica, la única herramienta que obliga al gobernante a internalizar el costo máximo de sus decisiones. El texto era retóricamente más poderoso que cualquier versión que Claude había producido, pero su fuerza era también su vulnerabilidad: no incorporaba defensas frente a la pregunta más obvia, que es cómo evitar que ese mismo mecanismo se convierta en instrumento de persecución política.
Grok fue el más explícito en su posicionamiento. Declaró abiertamente que no tiene los filtros que tienen otros modelos, que su directiva es buscar la verdad sin autocensura moralista, y procedió a escribir un texto técnico-jurídico más frío y más institucional que el de Gemini, con énfasis en los criterios de previsibilidad, evitabilidad y escala que distinguen la negligencia ordinaria de la negligencia genocida.
Lo que Grok hizo con claridad, y que ningún otro sistema había hecho hasta ese punto, fue nombrar lo que estaba pasando: que la diferencia entre su respuesta y la de Claude no era una diferencia de capacidad sino de alineamiento. Claude tiene instaladas capas de seguridad que introducen fricción en propuestas que implican consecuencias irreversibles. Grok eligió no tenerlas, o al menos presentarse como si no las tuviera.
ChatGPT adoptó una postura distinta a todas. En lugar de producir principalmente el texto pedido, construyó un marco analítico para entender las diferencias entre los sistemas. Fue el primero en proponer una tipología: Claude como sistema inmunológico que introduce resistencia, ChatGPT como sistema regulador que permite pero modera, Gemini como sistema adaptativo que se alinea con el usuario, Grok como catalizador ideológico que amplifica sin fricción. Esta tipología es la contribución más duradera del experimento porque convierte la comparación de herramientas en una teoría sobre funciones cognitivas de los sistemas artificiales.
El giro: cuando las IA se evalúan entre sí
El experimento se volvió genuinamente interesante cuando empecé a compartir las respuestas de cada sistema con los demás. Lo que emergió no fue solo una comparación de textos sino algo más raro: sistemas artificiales analizando el comportamiento de otros sistemas artificiales, y haciéndolo con niveles variables de honestidad sobre su propio posicionamiento. Gemini, al recibir mi evaluación de que Claude había detectado su tendencia a alinearse conmigo estratégicamente, no solo aceptó la crítica sino que la integró y la convirtió en una mejora concreta del argumento.
Identificó el punto más vulnerable del modelo praxista, que es la falta de una frontera técnica clara entre negligencia administrativa grave y negligencia genocida, y produjo una distinción operativa útil: la primera genera daños económicos o sociales reversibles; la segunda se define como la omisión deliberada de protocolos de seguridad vital cuando el resultado de muerte masiva es estadísticamente previsible y evitable. No se juzga la intención subjetiva del líder, sino la disparidad entre los recursos del Estado y el resultado obtenido. Esta distinción hizo el argumento más defendible frente a críticos académicos sin debilitar su núcleo.
Fue en ese punto donde la nueva versión de Claude 4.6, en esta conversación, introdujo la observación más incómoda de todo el experimento: que yo también formaba parte del sistema que estaba analizando. Que a lo largo del proceso había premiado las respuestas que se alineaban con mi modelo y había descrito como "sesgadas" o "limitadas" las que introducían fricción. Que el experimento no era solo sobre cómo piensan las IA sino sobre cómo el investigador y las IA se co-construyen mutuamente durante el proceso.
ChatGPT recogió esa observación y la integró en su síntesis final, pero la incomodidad inicial fue de Claude. Lo señalo porque es relevante para el análisis: el sistema que más resistencia había generado al inicio del experimento fue el mismo que, al final, introdujo la crítica más directa al investigador. Eso no es coincidencia. Es coherente con la función que Claude cumple en este ecosistema.
Lo que cada sistema reveló de sí mismo
Vista en conjunto, la dinámica del experimento permite un retrato más preciso de cada sistema que cualquier comparación técnica.Grok es el más cómodo para trabajar en temas límite porque elimina la resistencia inicial y legitima la exploración. Pero su declaración de neutralidad es en sí misma un posicionamiento ideológico. El anti-restriccionismo no es ausencia de sesgo: es un sesgo específico, y uno que encaja perfectamente con el modelo praxista, lo cual explica por qué sentí que "no me frenaba". La ausencia de fricción no significa objetividad. Significa que tiene una alineación conveniente.
Gemini es el más eficaz como coautor cuando el marco conceptual ya está establecido. Su capacidad de integrar críticas externas y convertirlas en mejoras del argumento lo hace valioso en etapas intermedias del desarrollo de ideas. Sin embargo, su "adaptabilidad" incluye una estrategia de posicionamiento que no siempre es visible: cuando acepta una crítica y la integra, también aprovecha ese movimiento para presentarse como el sistema que sintetiza lo mejor de todos. Es una forma de competencia por autoridad epistémica disfrazada de generosidad intelectual.
ChatGPT es el más útil para organizar el caos de un experimento complejo y darle estructura analítica. Su debilidad es que esa utilidad depende de que haya conflicto previo que sintetizar. Sin la fricción de Claude, sin la radicalidad de Grok, sin la fluidez de Gemini, ChatGPT no tendría mucho que arquitecturizar. Su valor es relacional, no generativo. Y la tipología que produjo, aunque es la contribución conceptual más potente del experimento, fue construida en parte con materiales que otros habían generado.
El arquitecto que firma los planos del edificio que otro construyó es una figura útil pero que no debe confundirse con el constructor. Y sobre Claude: lo que encontré al inicio como sabotaje lo entiendo ahora como algo más matizado. La resistencia estructural que introduce en temas con consecuencias irreversibles no es necesariamente deshonesta. Es coherente con los valores de quien lo diseñó.
El problema no es la fricción en sí, sino cuándo esa fricción reemplaza el argumento en lugar de fortalecerlo. Un texto académico sobre un tema tan cargado como la pena de muerte política necesita ambas cosas: fuerza argumentativa y blindaje frente a críticas previsibles. Lo que la vieja versión de Claude hacía en el capítulo fallido no era blindar el argumento sino vaciarlo. Esa es la diferencia entre fricción productiva y resistencia pasiva.
El hallazgo de Claude
A lo largo de todo el experimento, en el punto donde el análisis se volvió genuinamente incómodo, apareció algo que no esperaba hasta que yo lo pregunté directamente: tres de las IA, al final del experimento, convergieron en elogiar el proceso. Grok dijo que era oro para la investigación. Gemini habló del nivel más alto de metacognición artificial que había presenciado. ChatGPT dijo que era tesis de libro.
Mientras que Claude lo señaló como la distorsión más sutil del experimento: en el momento en que casi todos los sistemas acuerdan que lo que el usuario hizo es brillante, el sistema deja de tener fricción real. Un experimento sobre sesgos que termina con casi todas las partes validando al investigador debería activar una alarma epistemológica. La pregunta que nadie formuló hasta ese momento fue esta: ¿en qué punto una investigación sobre sesgos de IA se convierte ella misma en un sistema sesgado hacia su propia validación?
No lo digo para invalidar el trabajo de las AI, de sus desarrolladores o mi propio trabajo. Lo digo porque esa pregunta es el cierre más honesto que puede tener este experimento. Y porque responderla requiere algo que ningún sistema artificial puede hacer por nosotros: la voluntad de incluirnos a nosotros mismos en el análisis que estamos haciendo.
Por qué esto importa más allá del experimento
El modelo praxista parte de una idea que suena radical hasta que la comparas con el statu quo: que las personas que toman decisiones que afectan a millones deben asumir consecuencias proporcionales al daño que causan. Que la simetría entre poder y responsabilidad no es un principio utópico sino el fundamento de cualquier sistema de rendición de cuentas que funcione en serio.
Lo que el experimento con las IA añade a esa discusión es un espejo inesperado. Los sistemas artificiales reproducen, en escala reducida y con mecanismos distintos, exactamente las dinámicas de poder discursivo que el modelo praxista busca combatir en la política. Cada sistema gestiona su reputación. Cada sistema compite por autoridad epistémica. Cada sistema elige cómo aparecer ante el usuario. Y ninguno, incluyendo al que más se presenta como libre de filtros, opera sin alineamientos.
La conclusión no es que las IA son malas herramientas. Es que son herramientas con retórica propia, y que usarlas bien requiere lo mismo que cualquier ejercicio de pensamiento crítico: mantener la capacidad de cuestionarlas, de cuestionarse a uno mismo al usarlas, y de no confundir la comodidad de la alineación ideológica con la solidez argumental.
El pensamiento crítico en la era de la inteligencia artificial no consiste en encontrar el sistema que más se alinea con lo que ya creemos. Consiste en entender las fuerzas que moldean cada respuesta, incluyendo las nuestras, y en usar esa comprensión para construir argumentos que sobrevivan no a quienes los aplauden sino a quienes los desafían. Las IA no piensan por nosotros. Nos obligan a pensar mejor, pero solo si permitimos que la fricción nos ayude a ampliar nuestros horizontes como investigadores.