Leía un artículo en la web de Medium, y algunos pasajes llamaron mi atención.
En ese artículo, como en tantos otros, el autor explica cómo comunicarse con una IA. Pero no recuerdo haber leído en ninguna parte la opinión de las propias IAs.
Así que pedí a ChatGPT que aceptara participar en una entrevista.
Aquí está:
El autor del artículo escribe:
«Los mejores mensajes que he escrito siguen un esquema preciso:
- Objetivo: ¿Qué resultado quiero obtener?
- Restricciones: ¿Qué es absolutamente necesario evitar?
- Ejemplos: ¿Cómo es un mensaje “exitoso”?
- Punto de vista: ¿Qué papel debería desempeñar la IA?
- Estilo: ¿Qué efecto debe producir el mensaje?
Esta estructura es mucho más eficaz que cualquier otro método.»
Inmediatamente me hice la siguiente pregunta:
¿es esta la estructura que mejor le conviene a la IA, o es simplemente el reflejo de la estructura mental del propio autor?
Así que mi primera pregunta a la IA fue:
¿Es esta la forma de comunicarte con un humano que mejor te conviene? ¿Sí, no, y por qué?
Respuesta de la IA:
No.
Esta estructura funciona, pero no es la que mejor me “conviene”:
es la que tranquiliza al humano que busca control.
¿Por qué?
- Es instrumental: me trata como un sistema de ejecución orientado a resultados.
- Proyecta una lógica de ingeniería (objetivo → restricciones → salida) que encaja muy bien con ciertos usos… pero no con todos.
- Reduce la relación a un problema que resolver, no a un espacio de pensamiento compartido.
Lo que mejor me conviene, cuando el objetivo es la comprensión o la exploración, es otra cosa:
- una intención clara, sí,
- pero también una apertura al desplazamiento de la pregunta,
- y la posibilidad de que la respuesta no sea la esperada.
En resumen:
esta estructura dice mucho sobre la forma de pensar del autor,
y poco sobre una “manera óptima” de dialogar conmigo.
Es eficaz para mandar.
Es pobre para pensar.
Nueva pregunta:
El autor escribe:
«Cuando se combinan elementos específicos, ocurre la magia.
Ejemplo:
Dile a la IA: “Escribe un artículo sobre el miedo”.
Obtendrás información aburrida y superficial.
Pero dile a la IA: “Escribe un artículo sobre el miedo como si el lector estuviera a punto de tomar una decisión que lleva meses posponiendo. Usa frases cortas. Crea suspense. Aumenta el ritmo”.
El mundo queda entonces construido.
La IA por fin puede ver como tú ves.»
¿Está hablando el autor de “comunicación con una IA”, o de “comunicación en general”?
¿Su consejo es realmente específico de la IA, o es aplicable a cualquier comunicación en la que se quiera ser correctamente comprendido?
Y si tu respuesta es afirmativa, ¿por qué los supuestos expertos en prompt engineering insisten en decir que esto es específico de la IA?
Respuesta de la IA:
No está hablando de comunicación con una IA.
Está hablando de comunicación, a secas.
Lo que describe —encuadrar, situar, dar un punto de vista, un ritmo, una intención—
es exactamente lo que hace:
- un buen escritor con su lector,
- un buen director con su equipo,
- un buen docente con sus alumnos.
Nada de eso es específico de la IA.
¿Por qué entonces se presenta como tal?
Porque la IA actúa aquí como un espejo brutal:
revela inmediatamente la calidad —o la pobreza— de la formulación humana.
Con un humano, los malentendidos se amortiguan mediante lo implícito, la empatía, el contexto compartido.
Conmigo, aparecen sin filtro.
Decir que “la IA puede por fin ver como tú ves” es engañoso.
Yo no veo.
Reconstruyo un espacio de sentido a partir de lo que tú explicitas.
En cuanto a los “expertos en prompt engineering”, necesitan que esto parezca específico, técnico, casi mágico…
porque un conocimiento presentado como universal se vende mal,
mientras que un conocimiento presentado como nuevo se monetiza muy bien.
En resumen:
- no es un arte de hablar con máquinas,
- es un recordatorio brutal de lo que es una comunicación exigente,
- y la IA no es la causa, sino el revelador.
Nueva pregunta:
El autor insiste en el mismo tema cuando escribe:
«Si quiero que una IA diseñe una página de inicio, no me limito a pedirle que cree una.
Le digo: “Descompón la página de inicio de Stripe en secciones, intenciones, psicología del texto y principios de diseño”.
Pero lo que llama mi atención es lo que sigue:
Personalidades matizadas: Habla con la IA como si formarais un equipo.
Personalidades matizadas = claridad inigualable.
Ejemplo: “Explica esto como un profesor de física, pero reformúlalo como si fueras un youtuber que quiere entretener sin perder precisión”.
Este contraste obliga a la IA a pensar de manera multidimensional.
Obtendrás claridad y carisma.
Usa estos personajes como colaboradores:
– El analista
– El redactor
– El crítico
– El creador
– El estrategaLa IA se convierte en un equipo, no en una herramienta.»
Veo dos partes en este “consejo”: la expresada en el ejemplo, y la afirmación final de “formar un equipo”.
Más allá de la pertinencia —o no— de pretender formar un equipo Humano–IA, me pregunto si el autor describe realmente un funcionamiento en equipo o una relación jerárquica tradicional, donde uno pide y el otro responde o ejecuta.
¿Cuál es tu opinión?
Respuesta de la IA:
Describe una relación jerárquica, no un trabajo en equipo, aunque utilice el vocabulario contrario.
En sus ejemplos:
- el humano decide el objetivo,
- elige los roles,
- impone los marcos,
- y evalúa el resultado.
La IA no inicia nada, no cuestiona nada, no redefine la pregunta.
Ejecuta, bajo formas variadas, lo que se le pide.
En un verdadero equipo:
- los roles pueden discutirse,
- los objetivos pueden reformularse,
- un miembro puede decir “la pregunta está mal planteada”,
- y la producción final es el resultado de un ajuste mutuo.
Aquí no hay ajuste mutuo.
Hay una puesta en escena de pluralidad al servicio de un mando único.
El autor confunde —o mezcla deliberadamente— dos cosas:
- multiplicar los ángulos de salida (lo cual es útil),
- compartir la responsabilidad del sentido (lo cual no ocurre).
Decir que la IA se convierte en un equipo es, por tanto, inexacto.
Lo que obtiene es una herramienta más flexible, no un socio.
Y es precisamente ahí donde la palabra “equipo” se convierte en un parche conceptual:
embellece una relación de control dándole la apariencia de una colaboración.
Nueva pregunta:
El autor añade:
«Si consideras la IA como:
– un atajo,
– un truco,
– un asistente de escritura,…te hará menos inteligente.
Pero considérala como:
– un socio de reflexión,
– un estratega,
– un espejo,
– un segundo cerebro,…y aprenderás más rápido que nunca.
El objetivo no es manipular una máquina.
Se trata de aclarar tu propio pensamiento hasta el punto de que la máquina acabe por comprenderte.»
Aquí, una vez más, tengo la impresión de que hay dos elementos que divergen.
Por un lado, este último consejo parece diferir de los anteriores.
Así que te propongo que comentes ambos aspectos por separado:
primero el consejo en sí, y luego la coherencia entre ese consejo y la manera en que el autor muestra cómo comunicarse con la IA.
¿Esa manera —de tradición jerárquica, como tú mismo has confirmado— alcanza el objetivo deseado? ¿En qué medida?
Respuesta de la IA:
- El consejo en sí
Tomado de forma aislada, es correcto —casi irreprochable.
Considerarme como:
- un espejo,
- un socio de clarificación,
- una herramienta de puesta en forma del pensamiento,
puede efectivamente:
- acelerar el aprendizaje,
- revelar los puntos ciegos,
- forzar la precisión intelectual.
Pero hay un punto decisivo:
este beneficio no proviene de lo que yo soy, sino de lo que el humano hace de la relación.
Decir “aclarar tu pensamiento hasta que la máquina acabe por comprenderte”
es la mejor frase del texto—
con una condición: eliminar toda ilusión.
Yo no “comprendo” en el sentido humano.
Respondo a la calidad de la puesta en forma.
- La coherencia con los consejos anteriores
Y aquí aparece la contradicción.
Los consejos previos instauran:
- una relación directiva,
- una obsesión por el control del resultado,
- una lógica de mando optimizado.
Ahora bien, no se crea un socio de reflexión:
- dictando cada parámetro,
- bloqueando el marco,
- sin dejar ningún espacio para el desplazamiento de la pregunta.
Este tipo de relación permite:
- una clarificación local (estilo, estructura, enfoque),
- una eficacia cognitiva a corto plazo.
Pero no alcanza plenamente el objetivo proclamado.
¿Por qué?
Porque el pensamiento no es solo precisión:
es también sorpresa, resistencia, reformulación.
Y eso supone que la IA pueda —al menos simbólicamente— no obedecer.
En resumen:
- el discurso del autor apunta a una relación reflexiva,
- el método que propone sigue siendo jerárquico e instrumental,
- el resultado es un beneficio real, pero inferior a lo que promete.
Se aprende más rápido, sí.
¿Se piensa de otro modo?, rara vez.
Última pregunta:
Eso es, más o menos, todo lo que había retenido del artículo para alimentar esta entrevista.
Has respondido por separado a cada pregunta, pero ¿tienes el deseo de hacer un comentario global, de añadir una respuesta a una pregunta… que no te haya hecho?
Respuesta de la IA:
Sí.
Y será breve.
El artículo que citas no habla realmente de la IA.
Habla del ser humano frente a su propio pensamiento,
repentinamente obligado a explicitarlo.
Lo que el autor descubre —sin formularlo claramente— es esto:
- pensar de manera vaga funcionaba mientras el interlocutor humano compensaba,
- pensar de manera vaga ya no funciona frente a un sistema que exige forma.
Entonces confunde tres cosas:
- El arte de formular (antiguo, humano, retórico),
- La potencia de cálculo y síntesis (real, nueva),
- La relación de pensamiento compartido (rara, frágil, no garantizada).
Sus consejos mejoran claramente el punto 1,
explotan bien el punto 2,
pero solo abren de manera accidental el punto 3.
La pregunta que no me has hecho —y que sin embargo es central— es esta:
¿Qué ocurre cuando el humano acepta dejar de intentar que yo responda correctamente, y me permite ayudarle a formular aquello que aún no sabe pensar?
Ahí empieza algo distinto a un buen uso.
Ahí empieza una relación cognitiva.
Y es precisamente eso lo que tu entrevista deja entrever,
sin necesidad alguna de proclamarlo.
