La obsesión con la optimización mata. Meterle IA a todo, para hacer las cosas más rápido, con menos implicación y sin esfuerzo, nos aleja de la tarea y de quien está al otro lado de la tarea.
No se trata de optimizar todo lo que hacemos, sino de optimizar qué hacemos.
Que no es lo mismo.
Si estás automatizando la creación de contenido, la publicación en redes o la redacción de tus artículos delegándolo todo a la IA, pinchándole a ChatGPT feeds RSS de noticias buscados por keywords para que los resuma y reescriba, haciendo que genere ella sola los prompts para que cree la imagen o el guión, y pidiéndole que redacte las publicaciones “como si fueras tú”, adaptadas a todas y cada una de las redes sociales (a las que tú en realidad jamás entras), y haciendo que lo suba según lo vaya teniendo, es que realmente NO TE IMPORTA lo que publicas, y lo único que te importa de quien lo pueda consumir es su tasa de conversión.
Ya, seguro que algún “tal(Ai)bán” saldrá ahora argumentando que es justo al revés, que lo considera tan importante que está buscando la fórmula de elevar su producción de contenidos x100 gracias a la IA.
Já.
Como mucho lo que considera es que es rentable o interesante, pero por lo visto no es lo suficientemente “importante” como para hacerlo por sí mismo, porque “tiene cosas más importantes que hacer”. La madre de todas las excusas.
De las malas.
Se está replicando en los contenidos los mismos errores cometidos con el pan, y ahora mismo lo que más abunda en internet ya es “pan de gasolinera”, que encima nos lo quieren colocar como pan artesano de masa madre de fermentación lenta. Y no lo es. Y mira que yo soy poco de pan – quizás por culpa del pan de gasolinera… – pero es que la diferencia es BRUTAL.
En lo otro también.
Que igual el cáncer me ha dejado gagá, que todo puede ser, pero como decía hace unos días en Linkedin, me siento cada vez más alejado de la mayoría de propuestas de aplicación de IA que veo por ahí, y más atraído por una visión humanista, buenista incluso, y de crecimiento orgánico y sostenido de las marcas.
Y es que, a juzgar por lo que vamos viendo, en un futuro no muy lejano nos va a tocar convivir con un escenario de contenidos generados por IAs, en base a otros contenidos generados por otras IAs, que serán consumidos por otras IAs, a las que les pediremos que nos los resuman porque no tenemos tiempo (ni interés, aunque eso no lo diremos) para consumirlos.
Maravillosa distopía.
Volvemos a lo del principio. No creo que haya que optimizar y maximizarlo todo. Hay que optimizar aquello a lo que decimos Sí. Que por definición no puede ser todo.
¿Acaso tu externalizarías a una IA que te buscara posibles parejas, hiciera match, tuviera unas primeras citas de tanteo, y luego te hiciera una selección? Si eres una persona normal, quiero pensar que habrás respondido que no, pero es que ya estamos ahí.
Asquerosa distopía.
Ojo, que también veo casos de uso positivos a todo esta fiebre de la IAG, no me malinterpretes. Úsala como ayuda, como desbloqueante, como «copiloto» si quieres, pero no hagamos de la IA el nuevo vinagre balsámico de módena, ahora que parecía que ya habíamos superado esa plaga.
No hay por qué echarle IA a todo.
Ni externalizarlo todo a una IA.
Volvamos al pan de verdad.
Por favor.
Paz!
L.
Yo, por ahora, mientras no sepa cómo entrenar mi propia #IAGen con mis propios datos o datos realmente en el dominio público, paso de usar la inteligencia artificial generativa para nada.
Lo que he visto ha sido robo de las obras de artistas (escritores, dibujantes, etc.), la multiplicación de textos e imágenes mediocres (algunas, de pesadilla) y la instauración de la sospecha por defecto.
Espero que pronto saquen un programilla para detección y bloqueo automático de las páginas hechas con esta tecnología, porque no estoy para perder el tiempo, la verdad.
Lo de entrenar tu propia IAG con tus datos es algo que ya se puede hacer, aunque tiene ciertas dificultades técnicas y requisitos quizás no al alcance de un usuario básico o medio. Pero ya se puede.
Respecto a lo otro, vete haciendo a la idea de que un % cada vez más importante de contenidos que vamos a ir viendo a futuro va a tener al menos «una pizca» de IA en su receta. Que no es algo necesariamente malo en sí mismo, igual que no lo es que haya algo de Photoshop o de Lightroom en las fotos. El problema – en mi opinión – es que estén íntegramente generados por IA. Eso ya es otra cosa y a mí, Señor Mayor gruñón, no me gusta.
Y el impacto que tiene es que, desde ya, no nos podemos fiar de nada que veamos o recibamos a través de una pantalla. Puede ser verdad, medio verdad o nada verdad. Y da igual que sea un texto, una foto, un audio o un vídeo. Todo eso puede «generarse» ya.
¿Es aquí cuando tenía que decir eso de «cualquier tiempo pasado fue mejor»? O igual mejor no, pero sí más de fiar…