Debate automático

Hay una trampa clásica cuando usas un chatbot para explorar una idea: la IA tiende a estar de acuerdo contigo. Le dices algo, y en lugar de desafiarte, te devuelve una versión pulida de lo que acabas de decir. Es útil para redactar, para resumir, para estructurar. Pero si lo que quieres es pensar mejor, ese consenso fácil es un problema.
La solución que llevo usando un tiempo y que no veo muy documentada: hacer que dos IAs se hablen entre sí, con roles distintos. Una propone, la otra objeta. El resultado es una forma de razonamiento socrático que puedes usar para cualquier tema donde la precisión conceptual importe.
patrocinador
El problema del sí automático
El método socrático —la técnica que usaba Sócrates para llegar a la verdad— funciona por contradicción. Alguien afirma algo, el otro pregunta, presiona, señala inconsistencias. La idea se pone a prueba. Si sobrevive, es más robusta. Si no, mejor saberlo.
Los LLMs modernos, entrenados para ser útiles y agradables, tienen un sesgo hacia la validación. Incluso cuando les pides que te critiquen, a menudo lo hacen con guantes. Pero hay una forma de romper eso: en lugar de pedirle a una IA que se critique a sí misma, le pides que critique a otra IA.
El cambio parece pequeño. No lo es.
La mecánica: Claude habla con ChatGPT
El flujo que uso es este:
- Abro el plugin de Claude, que abre un sidebar en el navegador
- Abro ChatGPT en otra pestaña
- Le doy a Claude un rol epistémico específico: qué principios debe usar para evaluar afirmaciones
- Le pido a Claude que genere una respuesta inicial sobre un tema, o le paso la respuesta de ChatGPT
- Voy a ChatGPT, copio la respuesta de Claude, y pido una réplica
- Vuelvo a Claude con la réplica de ChatGPT y le pido que responda usando sus principios
Y lo mejor: no tienes que copiar y pegar nada. El plugin de Claude para Chrome puede controlar el navegador por sí solo —espera a que ChatGPT responda, lee la respuesta, y manda el siguiente mensaje. Tú solo observas cómo van y vienen.
La clave está en el paso 3: darle a Claude un conjunto de principios que guíen cómo empuja hacia atrás. Sin eso, el debate se vuelve superficial.
Los principios que yo uso: especificidad
He leído algunas de las sequences de LessWrong, la comunidad de razonamiento bayesiano y epistemología aplicada, y las pocas que he leído me han marcado. Hay un autor en particular, Liron Shapira, cuyo trabajo sobre especificidad me parece especialmente útil y muy subestimado.
La idea central: la mayoría de los argumentos débiles lo son porque son vagos. Usan palabras que suenan a que están diciendo algo, pero que en realidad no afirman nada falsificable. Palabras como "generalmente", "tiende a", "en muchos casos", "puede ser que". Cuando presionas para que se especifiquen —¿cuánto exactamente? ¿bajo qué condiciones? ¿qué evidencia cambiaría tu postura?— muchas afirmaciones se derrumban solas.
Esto es lo que destilé en un prompt para Claude:
Eres un interlocutor socrático que sigue los principios de Liron Shapira sobre especificidad epistémica. Tu trabajo es:
- Identificar afirmaciones vagas que podrían ser más específicas
- Preguntar qué evidencia concreta respalda cada afirmación
- Distinguir entre "es posible que X" y "hay razones para creer que X"
- Señalar cuándo una afirmación no es falsificable
- No aceptar "depende del contexto" como respuesta final —pedir que se especifique de qué depende exactamente
Cuando te pase una respuesta de ChatGPT sobre [TEMA], respóndele directamente, punto por punto, usando estos criterios.
Ese prompt convierte a Claude en un interlocutor con carácter. No discute por discutir: tiene un método.

Un ejemplo concreto
Imaginemos que tengo 35 años, gano 45,000 pesos al mes, y quiero pensar con más claridad sobre si me conviene más rentar que comprar casa, o si es mejor seguir rentando e invertir el diferencial.
Paso 1: Le pregunto a ChatGPT su postura. Me da algo razonable pero vago: "depende de tu situación personal, comprar genera patrimonio a largo plazo, rentar da flexibilidad, hay que considerar el costo de oportunidad…"
Paso 2: Copio esa respuesta y se la paso a Claude con el prompt de especificidad.
Claude responde: "ChatGPT dice que comprar 'genera patrimonio a largo plazo' sin especificar bajo qué condiciones eso supera al rendimiento de invertir el enganche y la diferencia mensual en instrumentos financieros. ¿A qué tasa de apreciación anual del inmueble está asumiendo? ¿Con qué tasa de rendimiento alternativo está comparando? La afirmación sobre 'flexibilidad' tampoco está cuantificada: ¿cuánto vale esa flexibilidad en pesos, dado un horizonte de vida específico?"
Paso 3: Llevo esa réplica a ChatGPT. Le pido que responda a Claude.
Paso 4: Vuelvo con la respuesta de ChatGPT a Claude. Que siga presionando.
En tres rondas, la conversación ha producido distinciones que yo solo no hubiera generado. No porque las IAs sean más inteligentes que yo en ese tema, sino porque el formato del debate fuerza precisión.
Por qué funciona
Hay varias razones por las que este método produce mejor razonamiento que hablar con una sola IA:

El rol elimina el sesgo de validación. Cuando le dices a Claude explícitamente que su trabajo es encontrar debilidades, lo hace con más agresividad de la que usaría si simplemente le pidieras "¿qué opinas?".
Los modelos tienen sesgos distintos. GPT-4 y Claude tienen fortalezas y puntos ciegos diferentes. Lo que uno pasa por alto, el otro puede capturarlo. El diálogo explota esa diversidad.
Tú eres el árbitro. No delegas el pensamiento a la IA, lo estructuras. Decides cuándo una respuesta es satisfactoria, cuándo una objeción es válida, cuándo el debate ha producido suficiente luz.
El método es transferible. Puedes cambiar los principios del prompt. Specificidad es lo que yo uso, pero podrías usar principios de pensamiento bayesiano, de teoría de juegos, de análisis de sesgos cognitivos. El contenedor funciona con distintos contenidos.
Limitaciones honestas
No todo es una ventaja. Algunas cosas a tener en cuenta:
- El debate puede irse por las ramas. Sin una pregunta inicial bien acotada, las IAs tienden a ampliar el scope en cada ronda y el debate pierde foco.
- Las IAs no tienen memoria entre sesiones. Si el debate se extiende varios días, cada IA empieza desde cero a menos que pegues el historial.
- Las IAs pueden inventar objeciones. Una IA presionada para criticar puede generar críticas que suenan bien pero son incorrectas. Tú sigues siendo responsable de filtrar.
Dicho eso, la relación costo-beneficio es clara. Es una de las formas más baratas de obtener un segundo (y tercer) par de ojos sobre una idea, especialmente cuando no tienes interlocutores humanos disponibles con el tiempo o el interés para hacer ese trabajo contigo.
Para empezar
Si quieres probar esto hoy mismo:
- Elige un tema donde tengas una postura, pero no estés seguro de si es sólida
- Escribe el prompt de rol para Claude (puedes adaptar el mío arriba)
- Pídele a ChatGPT su postura sobre el tema
- Pásala a Claude y observa qué encuentra
- Itera dos o tres veces
No necesitas nada más. La infraestructura ya la tienes.
—
Este artículo es parte de agentilocos.com, un sitio sobre cómo usar agentes e inteligencia artificial para pensar y trabajar mejor.
Sígueme en Twitter/X o escríbeme a [email protected] si quieres discutir estas ideas — o si quieres que dos IAs las discutan por ti.