¿Cómo funcionan DALL-E y otras formas de IA generativa?

0
5
¿Cómo funcionan DALL-E y otras formas de IA generativa?

DALL-E es espeluznantemente bueno. No hace muchos años, era fácil concluir que las tecnologías de IA nunca generarían nada de una calidad que se acercara a la composición o escritura artística humana. Ahora, los programas de modelo generativo que impulsan DALL-E 2 y el chatbot LaMDA de Google producen imágenes y palabras inquietantemente parecidas al trabajo de una persona real. Dall-E crea imágenes artísticas o fotorrealistas de una variedad de objetos y escenas.

¿Cómo funcionan estos modelos generadores de imágenes? ¿Funcionan como una persona, y deberíamos pensar en ellos como inteligentes?

Cómo funcionan los modelos de difusión

El Transformador Generativo Preentrenado 3 (GPT-3) es la vanguardia de la tecnología de IA. El código de computadora patentado fue desarrollado por OpenAI, una operación tecnológica del Área de la Bahía que comenzó como una organización sin fines de lucro antes de convertirse en lucrativa y licenciar GPT-3 a Microsoft. GPT-3 se creó para producir palabras, pero OpenAI modificó una versión para producir DALL-E y su secuela, DALL-E 2, utilizando una técnica llamada modelado de difusión.

Los modelos de difusión realizan dos procesos secuenciales. Arruinan imágenes, luego intentan reconstruirlas. Los programadores dan al modelo imágenes reales con significados atribuidos por humanos: perro, pintura al óleo, plátano, cielo, sofá de los años 60, etc. El modelo los difunde, es decir, los mueve, a través de una larga cadena de pasos secuenciales. En la secuencia de ruina, cada paso altera ligeramente la imagen que le entregó el paso anterior, agregando ruido aleatorio en forma de píxeles sin sentido dispersos, y luego entregándolo al siguiente paso. Repetido una y otra vez, esto hace que la imagen original se desvanezca gradualmente y su significado desaparezca.

No podemos predecir qué tan bien, o incluso por qué, funciona una IA como esta. Solo podemos juzgar si sus resultados se ven bien.

Cuando finaliza este proceso, el modelo lo ejecuta a la inversa. Comenzando con el ruido casi sin sentido, empuja la imagen hacia atrás a través de una serie de pasos secuenciales, esta vez intentando reducir el ruido y recuperar el significado. En cada paso, el rendimiento del modelo se juzga por la probabilidad de que la imagen menos ruidosa creada en ese paso tenga el mismo significado que la imagen real original.

Mientras que desdibujar la imagen es un proceso mecánico, devolverla a la claridad es una búsqueda de algo parecido al significado. El modelo se “entrena” gradualmente ajustando cientos de miles de millones de parámetros (piense en pequeños interruptores de atenuación que ajustan un circuito de luz de completamente apagado a completamente encendido) dentro de las redes neuronales en el código para “aumentar” los pasos que mejoran la probabilidad de significado de la imagen, y “rechazar” los pasos que no lo hacen. Al realizar este proceso una y otra vez en muchas imágenes, modificando los parámetros del modelo cada vez, finalmente se ajusta el modelo para tomar una imagen sin sentido y evolucionarla a través de una serie de pasos hasta una imagen que se parece a la imagen de entrada original.

Suscríbase para recibir historias sorprendentes, sorprendentes e impactantes en su bandeja de entrada todos los jueves

Para producir imágenes que tienen significados de texto asociados, las palabras que describen las imágenes de entrenamiento se toman a través de las cadenas de ruido y eliminación de ruido al mismo tiempo. De esta forma, el modelo se entrena no solo para producir una imagen con una alta probabilidad de significado, sino también con una alta probabilidad de que se asocien las mismas palabras descriptivas. Los creadores de DALL-E lo entrenaron en una franja gigante de imágenes, con significados asociados, seleccionados de toda la web. DALL-E puede producir imágenes que corresponden a un rango tan extraño de oraciones de entrada porque eso es lo que había en Internet.

ai generativa

Estas imágenes se crearon utilizando la IA generativa llamada Stable Diffusion, que es similar a DALL-E. El mensaje utilizado para generar las imágenes: “foto a color de abraham lincoln bebiendo cerveza frente a la aguja espacial de seattle con taylor swift”. Taylor Swift salió un poco espeluznante en la primera imagen, pero tal vez así es como se ve Abraham Lincoln después de unas cervezas. (Crédito: Big Think, difusión estable)

El funcionamiento interno de un modelo de difusión es complejo. A pesar de la sensación orgánica de sus creaciones, el proceso es completamente mecánico, construido sobre una base de cálculos de probabilidad. (Este documento resuelve algunas de las ecuaciones. Advertencia: las matemáticas son difíciles).

Esencialmente, las matemáticas se tratan de dividir operaciones difíciles en pasos separados, más pequeños y más simples que son casi tan buenos pero mucho más rápidos para que las computadoras los resuelvan. Los mecanismos del código son comprensibles, pero el sistema de parámetros modificados que sus redes neuronales captan en el proceso de entrenamiento es un completo galimatías. Un conjunto de parámetros que produce buenas imágenes es indistinguible de un conjunto que crea malas imágenes, o imágenes casi perfectas con algún defecto desconocido pero fatal. Por lo tanto, no podemos predecir qué tan bien, o incluso por qué, funciona una IA como esta. Solo podemos juzgar si sus resultados se ven bien.

¿Son inteligentes los modelos generativos de IA?

Es muy difícil decir, entonces, cuánto se parece DALL-E a una persona. la mejor respuesta es probablemente no del todo. Los humanos no aprenden ni crean de esta manera. No tomamos datos sensoriales del mundo y luego los reducimos a ruido aleatorio; tampoco creamos cosas nuevas comenzando con total aleatoriedad y luego eliminando el ruido. El imponente lingüista Noam Chomsky señaló que un modelo generativo como GPT-3 no produce palabras en un idioma significativo de manera diferente a como produciría palabras en un idioma imposible o sin significado. En este sentido, no tiene concepto del significado del lenguaje, rasgo fundamentalmente humano.

ai generativa

Estas imágenes se crearon utilizando la IA generativa llamada Stable Diffusion, que es similar a DALL-E. El mensaje utilizado para generar las imágenes: “retrato de conan obrien al estilo de vincent van gogh”. (Crédito: Big Think, difusión estable)

Incluso si no son como nosotros, ¿son inteligentes de alguna otra manera? En el sentido de que pueden hacer cosas muy complejas, más o menos. Por otra parte, un torno automatizado por computadora puede crear piezas de metal altamente complejas. Según la definición de la prueba de Turing (es decir, determinar si su salida es indistinguible de la de una persona real), ciertamente podría serlo. Por otra parte, los programas de robots de chat extremadamente simplistas y huecos han hecho esto durante décadas. Sin embargo, nadie piensa que las máquinas herramienta o los chatbots rudimentarios sean inteligentes.

Una mejor comprensión intuitiva de los programas de IA del modelo generativo actual puede ser pensar en ellos como imitadores de idiotas extraordinariamente capaces. Son como un loro que puede escuchar el habla humana y producir no solo palabras humanas, sino grupos de palabras en los patrones correctos. Si un loro escuchara telenovelas durante un millón de años, probablemente podría aprender a enhebrar diálogos interpersonales dramáticos y sobreexcitados emocionalmente. Si pasaste esos millones de años dándole galletas por encontrar mejores oraciones y gritándole por las malas, podría mejorar aún más.

O considere otra analogía. DALL-E es como un pintor que vive toda su vida en una habitación gris sin ventanas. Le muestras millones de pinturas de paisajes con los nombres de los colores y temas adjuntos. Luego le das pintura con etiquetas de colores y le pides que haga coincidir los colores y que haga patrones que imiten estadísticamente las etiquetas del sujeto. Hace millones de pinturas al azar, comparando cada una con un paisaje real, y luego altera su técnica hasta que empiezan a parecer realistas. Sin embargo, no pudo decirte nada sobre lo que es un paisaje real.

Otra forma de obtener información sobre los modelos de difusión es mirar las imágenes producidas por uno más simple. DALL-E 2 es el más sofisticado de su tipo. La versión uno de DALL-E a menudo producía imágenes que eran casi correctas, pero claramente no del todo, como dragones-jirafas cuyas alas no se unían correctamente a sus cuerpos. Un competidor de código abierto menos poderoso es conocido por producir imágenes inquietantes que parecen oníricas y extrañas y no del todo realistas. Los defectos inherentes a los mashups estadísticos sin sentido de un modelo de difusión no están ocultos como los del mucho más pulido DALL-E 2.

El futuro de la IA generativa

Ya sea que lo encuentre maravilloso u horripilante, parece que acabamos de entrar en una era en la que las computadoras pueden generar imágenes y oraciones falsas convincentes. Es extraño que una imagen con significado para una persona pueda generarse a partir de operaciones matemáticas en un ruido estadístico casi sin sentido. Si bien las maquinaciones no tienen vida, el resultado parece algo más. Veremos si DALL-E y otros modelos generativos evolucionan hacia algo con una especie de inteligencia más profunda, o si solo pueden ser los mejores imitadores de idiotas del mundo.

LEAVE A REPLY

Please enter your comment!
Please enter your name here