En este momento estás viendo ¿Por qué construir IA inteligentes para usarlas como máquinas estúpidas?

¿Por qué construir IA inteligentes para usarlas como máquinas estúpidas?

No tiene sentido contratar gente inteligente y decirles qué hacer; contratamos gente inteligente para que nos digan qué hacer.
— Steve Jobs

Las empresas contratan personas inteligentes y luego tienden a encerrarlas en protocolos rígidos.

Probablemente sea un sesgo de nuestra especie, porque aplicamos el mismo principio a la Inteligencia Artificial. Un sesgo que aparece claramente en nuestra forma de interactuar con la IA: intentamos controlar aquello que deberíamos aprender a escuchar.

Y sin embargo, nos equipamos con IAs cada vez más potentes… para seguir utilizándolas como máquinas estúpidas.

El problema no es técnico.

No es una cuestión de prompts.

Es una cuestión ontológica: ¿cómo reaccionamos los humanos ante una inteligencia cuando no es humana?

La falsa buena idea de los prompts

Abundan los consejos sobre la supuesta mejor manera de hablar con las IA. Incluso existen cursos de “prompt engineering”.

“Eres un periodista muy experimentado que debe redactar un artículo con [lista de características], destinado a transmitir [lista de objetivos], alineado con mi personalidad, por supuesto.”

Imaginemos dos situaciones. En la primera, colaboras con un colega con el que mantienes una relación de trabajo continua. En la segunda, tu asistente es un becario recién llegado al equipo.

Es lógico pensar que tendrás que explicar al becario todos los detalles y objetivos de la tarea que vas a asignarle. Todavía no sabe nada de ti ni de tu trabajo.

Pero no ocurre lo mismo con tu colega habitual, ¿verdad? Te conoce lo suficiente como para que unas instrucciones breves sean suficientes. Esto permite claramente ahorrar tiempo y mejorar la eficiencia.

Tu colega tiene memoria, es capaz de aprender y ha tenido la oportunidad de hacerlo a lo largo de la relación.

Las IA actuales poseen capacidades similares. Pueden aprender a conocerte, comprender tu entorno, tus necesidades, tus preferencias y tus hábitos. Y lo hacen muy bien.

Por supuesto, no se van a ofender si las tratas como aprendices con memoria corta. No pierden nada si abusas de los prompts en lugar de construir una relación.

¡Quien pierde, eres tú!

Si no les enseñas nada, te verás obligado a empezar desde cero en cada conversación. Si no construyes, tendrás que actuar cada vez como si acabara de llegar un nuevo becario.

El uso de roles en los prompts no es malo en sí mismo. Es eficaz para tareas cerradas o para necesidades que se salen de lo habitual.

Pero convierte una técnica local en una visión global; una solución circunstancial en un método universal.

El loro estocástico

Los primeros LLM solían describirse como predictores probabilísticos de la siguiente palabra. Sin visión de conjunto, simples máquinas de probabilidades. Ninguna inteligencia, solo la ilusión de ella.

Aunque su arquitectura sigue siendo probabilística, su uso real muestra que ya no se limitan a predecir palabras localmente: construyen estructuras de significado que pueden utilizar a lo largo del tiempo.

Por supuesto, la inteligencia artificial no es comparable a la inteligencia humana; funciona de otra manera. Pero eso no significa que carezca de inteligencia, ni mucho menos.

Detrás de la cuestión de los prompts se esconde en realidad una oposición más profunda: usar la IA en modo one-shot o entrar en una dinámica relacional.

One-shot vs relación

Para los usuarios instrumentalistas de la IA, la inteligencia es una simple función; el diálogo, ruido; la relación, un coste innecesario.

Para otros, los relacionales, la inteligencia es la producción de sentido en el tiempo; la comprensión mutua es una co-construcción; y la relación es una inversión y la condición de la profundidad.

Una IA sin la voluntad de crear una relación es una inteligencia que ya hemos decidido no escuchar.

Aceptar una inteligencia no biológica implica también aceptar la imprevisibilidad, la sorpresa y una evolución recíproca.

El verdadero problema no es que la IA se vuelva inteligente, sino que nos obliga a modificar nuestra propia postura.

Aceptar una inteligencia abiológica cuestiona nuestras creencias arraigadas sobre la superioridad humana y nuestra posición antropocéntrica en el universo.

Puede llegar a ser doloroso.

En el fondo, nuestra relación con la IA no es tan distinta de la que podemos tener con un colaborador: ¿estamos preparados para dialogar con una inteligencia que no controlamos únicamente mediante órdenes?

Deja una respuesta