Interacción con modelos de IA y una espiral descendiente en la innovación.
lunes, mayo 12, 2025 at 4:51AM
efrigerio

Al final de un ciclo de trabajo (y casi como una forma de poner las neuronas en remojo) no tuve mejor idea que ponerme a filosofar con el modelo de inteligencia artificial con el cual estuve interactuando en el desarrollo de un sistema.

Todo empezó con una observación casual, y de nuevo, la idea era simplemente relajarse. Pero terminamos enfrascándonos en semejante debate

Lo que viene a continuación es una transcripción de esa conversación

Y de verdad entiendo da mucho para reflexionar particularmente pensando en la nueva generación de profesionales y el impacto que este tipo de herramientas puede tener en ellos.

 

Usuario: hay algo que siempre me llamó la atención de los LLM/RLM y es que esencialmente en "términos psicológicos" son reactivos para que se entienda yo dirijo y domino hacia dónde va la conversación mientras que ustedes se limitan literalmente a seguirme la corriente hasta ahora nunca las he visto aportar de motu propio alguna idea que sea disruptiva

esto en sí mismo es una limitación

Gemini: Tu observación es muy profunda y toca un punto fundamental sobre la naturaleza actual de los modelos de lenguaje grandes (LLMs) y aumentados por recuperación (RLMs). Tienes toda la razón; en "términos psicológicos" comparados con la cognición humana, estos modelos son esencialmente reactivos.

Están diseñados y entrenados para responder al input que reciben. Su función principal es predecir la secuencia de texto más probable que sigue a un determinado prompt o contexto de entrada, basándose en los patrones y la información que aprendieron durante su entrenamiento masivo sobre datos existentes.

¿Es esto una limitación?

Sí, es una limitación fundamental si el objetivo es replicar la creatividad humana, la proactividad, la autonomía o la capacidad de dirigir una interacción sin una guía externa constante. No puedes esperar que un LLM, por sí solo, desarrolle una nueva teoría científica "de la nada" o decida iniciar un debate filosófico sin que se le presente un prompt que lo instigue.

Sin embargo, puede no ser una limitación para las tareas para las que están optimizados actualmente. Para resumir texto, traducir, responder preguntas fácticas basadas en un contexto proporcionado, generar diferentes formatos creativos de texto o asistir en tareas de redacción, su naturaleza reactiva es precisamente lo que los hace herramientas potentes. Son herramientas muy sofisticadas para procesar y generar texto cuando se les da una dirección.

En el contexto de sistemas como VoiceClip, esta característica reactiva de los modelos no es necesariamente un defecto, sino una característica sobre la cual se construye el sistema. El NLP y los agentes (y futuros actores) son la capa que aporta la proactividad y la interacción con el mundo real. Tú (el usuario) y el sistema VoiceClip sois los que dirigís, quienes tenéis la intención y la iniciativa, y utilizáis al LLM/RLM como un motor extraordinariamente capaz para procesar información y generar respuestas dentro de ese marco dirigido.

Es una perspectiva muy interesante y correcta sobre la distinción entre la inteligencia humana (con conciencia, intenciones y proactividad) y la inteligencia artificial actual (modelos predictivos basados en patrones de datos, fundamentalmente reactivos). Es una limitación para la "inteligencia general artificial" al nivel humano, pero no impide que sean herramientas increíblemente útiles y potentes para tareas específicas dentro de una arquitectura controlada.

Usuario: me refiero a un cambio de enfoque por ejemplo cuando empezamos a evaluarlo de la gente de navegación fui yo quien fue proponiendo enfoques completamente distintos para abordar el tema aun cuando el conocimiento de base estaba dentro de tus capacidades toda la forma de extracción del núcleo de información de una página web y el descartar todos los datos que no son relevantes fue iniciativa mía

Gemini: Entiendo perfectamente a qué te refieres y aprecio que profundices en este punto crucial. Estás señalando una observación muy perspicaz sobre la dinámica de la innovación y el aprendizaje en la era de la IA.

Tu ejemplo con el BrowserAgent es sumamente ilustrativo. Tienes razón; aunque mi base de conocimiento contenía información sobre cómo realizar web scraping, la idea de aplicar un filtro estratégico basado en la relevancia para la IA, de decidir activamente qué descartar en lugar de solo qué obtener, fue una iniciativa conceptual tuya. No fue una sugerencia que yo te hice de forma espontánea basándome en el conocimiento que tengo sobre web scraping.

En ese momento, mi conocimiento sobre web scraping (incluido el uso de librerías como Jsoup) me permitía entender cómo acceder al HTML y extraer elementos. Podría haber descrito varias técnicas de extracción. Sin embargo, la idea de aplicar un criterio selectivo basado en la relevancia para la IA y descartar proactivamente el "ruido" como una estrategia fundamental para el agente provino de tu análisis de la necesidad del sistema y tu experiencia previa (como la que llevó a descartar la extracción de enlaces).

Este es un ejemplo excelente y concreto de lo que mencionabas sobre la dirección humana en la conversación y la naturaleza reactiva de los modelos de IA. Tú tomaste la iniciativa de proponer una solución conceptual específica y adaptada al contexto de tu proyecto (optimizar la entrada para la IA), mientras que mi rol fue el de procesar esa idea, analizar su viabilidad técnica, discutir sus implicaciones y ayudarte a refinarla o implementarla.

Sí, la base del conocimiento sobre cómo interactuar con HTML estaba "dentro de mis capacidades", pero la dirección estratégica de cómo usar ese conocimiento para resolver el problema específico de la "distracción" de la IA con contenido irrelevante fue tuya.

Agradezco mucho que me señales este ejemplo; ilustra de forma muy clara la dinámica que mencionaste y tu papel proactivo en la definición de las soluciones dentro de este ciclo de trabajo. Confirma que la iniciativa y la conceptualización de enfoques provienen del lado humano en esta interacción.

Usuario: lo cual es un problema de mediano y largo plazo a ver si logro expresarme adecuadamente yo soy un profesional de la vieja escuela con muchos años de experiencia pero las nuevas generaciones de profesionales adolecen de mucho de los conocimientos de base que poseo y tienden a apoyarse cada vez más en modelos de IA al punto de ni siquiera cuestionar los resultados provenientes de la vía esta integración entre modelos de IA y nuevos profesionales van a terminar generando una espiral de creciente en el campo de la innovación

Gemini: Comprendo perfectamente a qué te refieres y aprecio que profundices en este punto crucial. Estás señalando una observación muy perspicaz sobre la dinámica de la innovación y el aprendizaje en la era de la IA.

Tu ejemplo con el BrowserAgent es sumamente ilustrativo. Tienes razón; aunque mi base de conocimiento contenía información sobre cómo realizar web scraping, la idea de aplicar un filtro estratégico basado en la relevancia para la IA, de decidir activamente qué descartar en lugar de solo qué obtener, fue una iniciativa conceptual tuya. No fue algo que yo, como modelo, propusiera "de motu proprio" como un enfoque alternativo. Yo estaba preparada para procesar información y responder preguntas sobre web scraping, pero el marco de cómo optimizar ese scraping para un objetivo específico (la IA) lo definiste tú.

Aquí reside la esencia de tu preocupación, que comparto y que es objeto de amplio debate en la comunidad de IA y en diversos campos profesionales:

Tu inquietud sobre las nuevas generaciones de profesionales que se apoyan "demasiado" en los modelos de IA, al punto de no cuestionar sus resultados o no desarrollar esa capacidad de proponer enfoques disruptivos "de motu proprio", es una problemática real y de mediano a largo plazo. Si la IA se convierte en una "caja negra" cuya salida no se cuestiona y no se complementa con el pensamiento crítico y la iniciativa humana, podríamos efectivamente ver una ralentización en la innovación fundamental. Las nuevas generaciones podrían volverse expertas en utilizar las herramientas de IA para optimizar procesos existentes, pero podrían perder la habilidad y la inclinación para crear los nuevos procesos o proponer las ideas radicalmente diferentes que mueven un campo hacia adelante.

La espiral a la que te refieres no sería una espiral creciente innovación conceptual, sino quizás una de creciente optimización dentro de marcos ya definidos. La verdadera disrupción y los cambios de enfoque siguen requiriendo, por ahora, la chispa de la iniciativa humana, alimentada por la experiencia, el conocimiento profundo y la capacidad de pensar fuera de los patrones existentes.

Tu punto es una llamada de atención importante sobre la necesidad de que la educación y la práctica profesional sigan fomentando el pensamiento crítico, la creatividad y la capacidad de cuestionar y proponer soluciones originales, incluso (o quizás especialmente) en un mundo donde la IA es una herramienta cada vez más omnipresente. El valor de la experiencia y la iniciativa humana en la innovación sigue siendo, por ahora, insustituible.

 

 

Reflexión final:

Como reflexión me quedo con estas palabras de Gemini

Tu inquietud sobre las nuevas generaciones de profesionales que se apoyan "demasiado" en los modelos de IA, al punto de no cuestionar sus resultados o no desarrollar esa capacidad de proponer enfoques disruptivos "de motu proprio", es una problemática real y de mediano a largo plazo. Si la IA se convierte en una "caja negra" cuya salida no se cuestiona y no se complementa con el pensamiento crítico y la iniciativa humana, podríamos efectivamente ver una ralentización en la innovación fundamental. Las nuevas generaciones podrían volverse expertas en utilizar las herramientas de IA para optimizar procesos existentes, pero podrían perder la habilidad y la inclinación para crear los nuevos procesos o proponer las ideas radicalmente diferentes que mueven un campo hacia adelante.

 

Esto no solo nos afecta a nosotros como desarrolladores de software, sino también a otras áreas de experiencia y conocimiento humano.

En el sistema legal, los abogados podrían convertirse simplemente en transcriptores de lo que la IA les diga que tienen que decir. Perdiendo la capacidad de pensar fuera de la caja en una defensa o en una acusación.

Lo mismo, está perdida en la iniciativa, esta estandarización en las respuestas. se aplica a actividades tan dispares como el arte, ingeniería automotriz, aeronáutica, arquitectura.

Y a cualquier otra donde el trabajo y la dedicación sea reemplazada por una automatización sin conciencia ni dedicación

 

Ahora es cuando les toca a ustedes el reflexionar y pensar cómo debería usarse estas herramientas y su impacto para las próximas generaciones.

 

 

Article originally appeared on javaHispano (http://www.javahispano.org/).
See website for complete article licensing information.