Me ha pasado ya varias veces que, dentro del contexto del trabajo, recibo una entrega o propuesta que está 100% elaborada en base a Inteligencia Artificial Generariva.
Cuando sucede, no puedo evitar sentir que la persona que elaboró el documento fue desprolija y/o no ha realmente hecho el trabajo de reflexión que permitiría generar una solución como la que se propone. Siempre es posible que esto sea un prejuicio, pero pienso que más bien es un marcador somático, basado en experiencias reales que quedaron registradas en los recovecos de mi aparato mental.
De todas maneras, más allá del origen de este sentimiento, sí creo que estamos expuestos como sociedad a hacernos excesivamente dependientes de las respuestas que nos ofrecen los grandes modelos de lenguaje y, en consecuencia, a outsourcear cada vez más el esfuerzo involucrado en el proceso de pensamiento. Pienso que esto no es inocuo, ya que tenemos buenas razones para asumir que ese esfuerzo es el mejor indicador que tenemos de desarrollo cognitivo.
En su libro Skill, Anders Ericsson y Robert Pool proponen que la expertise es domain specific, es decir, que no “chorrea” hacia otros dominios de competencia, sino que se mantiene localizada ahí donde se desarrolló. Muestran, además, que el desarrollo de habilidades se produce de manera más efectiva cuando se realiza de manera intencionada y sistemática sobre un problema o desafío específico de la práctica que se desea mejorar.
Pienso que el uso bruto, excesivo e indiscriminado de la IA en general es algo que nos puede hacer menos competentes, o al menos llevarnos a perder oportunidades para desarrollar expertise en ámbitos relevantes en términos personales o profesionales.
La pregunta importante, en este caso, es… ¿cómo distinguimos qué tareas está bien delegar a la IA y cuáles no? ¿Por qué? Tengo algunas ideas al respecto que me gustaría poder pensar un poco más en otro momento.
Ahora, tengo sueño.