Hay una frase sobre la Inteligencia Artificial que se me quedó grabada hace mucho y la recuerdo cada muy poco.
Juraría que fue el bueno de Víctor Sáez, gran amigo de la comunidad de WordPress, en un evento allá por 2020. Que ya ha llovido. Pero se sigue cumpliendo:
«Lo malo de estos modelos de inteligencia artificial es que están diseñados para tener sentido, no para tener razón».
Párate un par de minutos para volver a leerlo con detalle. Porque igual la obviedad tiene más fondo de lo que parece.
Uno de los grandísimos problemas que tienen ChatGPT es que SIEMPRE tienen una respuesta. Y la respuesta SIEMPRE es coherente… pero seguro que te has encontrado más de una ocasión (y de 2 y de 10) en las que esa respuesta no tiene ni pies ni cabeza.
Sí, es coherente. Pero completamente inventada.
A mí me recuerda a ese amigo que tenías en el cole con imaginación infinita y que, aunque nunca estudiaba, siempre rellenaba folios y folios en el examen de verborrea con sentido pero sin sustancia. Por si colaba y el profesor corregía «a bulto».
Te lo cuento con un caso real que me pasó la semana pasada con una de las automatizaciones del Ideario Automatista:
Es parte del proceso de publicación de las ideas desde Airtable a WordPress (y de la que hablé en la charla de Chiclana que te comenté hace unas semanas).
Sin entrar en mucho detalle, la automatización se encarga de mover mis ideas cuando ya las he marcado como «grabadas», subir el fichero de audio de Drive a WordPress y quitarme todos los pasos que me generaban fricción en mi camino.
Y en una de las partes, donde ves los loguitos de OpenAI, entra la IA a jugar:
- Hace una transcripción del audio.
- A partir de ella me genera un boceto con algunos de los puntos que añado al ideario: resumen de la idea, a qué negocios aplica y qué herramientas se podrían utilizar.
Todo fantástico… hasta que la semana pasada falló la parte de la transcripción y ChatGPT, sin titubear, decidió hacerme un resumen de NADA.
— Oye, ChatGPT, ¿Me puedes hacer un resumen de este texto vacío?
— Toma, claro! Aquí lo tienes, 450 palabras sin pies ni cabeza.
Para muestra, un botón (te lo corto, porque no hace falta mucho más 😂😂😂)
De verdad, que aunque no sea humana… se entiende que pueda fallar. Pero leches, lo mínimo que debería hacer es avisar de que hay un fallo.
¿Será por eso lo de que Errare humanum est? Si es así, aún nos queda margen en lo de automatizar para humanizar 😜
Hasta la próxima, automatista!🫡
Santy.
PD: si tú eras de los de imaginación inifita en el cole… dime si alguna vez coló lo de inventarte la respuesta.
PD2: lo bueno es que lo pude detectar y diseñar un mecanismo de emergencia para que si vuelve a pasar, me avise antes de hacer el idiota.
PD3: la semana pasada, en una de las PD colé una falta de ortografía que aún me están llorando los ojos. Perdón 🙏🏻🙏🏻🙏🏻🙏🏻
PD4: ¿ves, ChatGPT? No es TAAAAAAN difícil reconocer un error.