Elija su idioma

Elija su idioma

El sitio web se ha traducido al Español con la ayuda de humanos e IA

Desestimar

Descarte el manual: AI Generativa

20 mins de lectura
Profile picture for user Labs.Monks

Escrito por
Labs.Monks

a blue backdrop with the copy "Generative AI (Artificial Intelligence)"

La IA generativa ha arrasado en la industria creativa, inundando nuestras redes sociales de hermosas creaciones impulsadas por esta tecnología. Pero, ¿ha llegado para quedarse? ¿Qué deben tener en cuenta los creadores?

En este episodio de Scrap the Manual, la presentadora Angélica Ortiz cuenta con la colaboración de Samuel Snider-Held, tecnólogo creativo especializado en aprendizaje automático e IA generativa. Juntos, Sam y Angélica responden a las preguntas de nuestra audiencia -desglosando la palabra de moda en consideraciones y conclusiones tangibles- y explican por qué adoptar la IA Generativa podría ser positivo para los creadores y las marcas.

Lee el debate a continuación o escucha el episodio en tu plataforma de podcast preferida.

00:00

00:00

00:00

Angélica: Hola a todos. Bienvenidos a Scrap the Manual, un podcast en el que provocamos momentos "ajá" a través de debates sobre tecnología, creatividad, experimentación y cómo todo ello funciona conjuntamente para abordar retos culturales y empresariales. Mi nombre es Angélica, y hoy me acompaña un anfitrión invitado muy especial, Sam Snider-Held

Sam: Hola, me alegro de estar aquí. Me llamo Sam. Ambos somos técnicos creativos senior en Media.Monks. Yo trabajo en Nueva York, concretamente en aprendizaje automático e inteligencia artificial generativa, mientras que Angélica trabaja en la oficina de los Países Bajos con el equipo de Labs.Monks.

Angélica: En este episodio, vamos a cambiar un poco las cosas y a introducir un nuevo segmento en el que traemos a un especialista y repasamos algunos conceptos erróneos comunes sobre una determinada tecnología.

Y, oh chico, estamos empezando con uno grande: IA Generativa. Ya sabes, la que ha inspirado los largos pergaminos de Midjourney, Stable Diffusion y las imágenes de DALL-E, y la tecnología de la que la gente parece no cansarse en los últimos meses. Hace poco cubrimos este tema en nuestro Labs Report, así que si aún no lo has consultado, no dudes en hacerlo. No es necesario para escuchar este episodio, por supuesto, pero sin duda ayudará en la cobertura de la visión general de alto nivel de las cosas. Y también hicimos un prototipo que va más en profundidad sobre cómo en Media.Monks estamos buscando en esta tecnología y cómo se implementa dentro de nuestros flujos de trabajo.

Para la lista de conceptos erróneos que estamos rompiendo o confirmando hoy, hemos reunido esta lista de todo el mundo, desde directores artísticos a directores técnicos, para obtener una variedad de lo que la gente piensa sobre este tema. Empecemos por lo básico: ¿Qué es la IA Generativa?

Sam: Sí, desde un punto de vista general, se puede pensar en los modelos generativos como algoritmos de IA que pueden generar nuevos contenidos basándose en los patrones inherentes a su conjunto de datos de entrenamiento. Eso puede resultar un poco complejo. Otra forma de explicarlo es que, desde el comienzo de la revolución del aprendizaje profundo en 2012, los ordenadores han ido mejorando cada vez más en la comprensión de lo que hay en una imagen, el contenido de una imagen. Así que, por ejemplo, ahora puedes mostrar una foto de un gato a un ordenador y dirá: "oh sí, eso es un gato" Pero si le enseñas, quizás, una foto de un perro, dirá, "No, eso no es un gato. Eso es un perro"

Así que puedes pensar en esto como aprendizaje automático discriminativo. Está discriminando si es o no una foto de un perro o un gato. Está discriminando a qué grupo de cosas pertenece esta foto. Ahora, con la IA generativa, se intenta hacer algo un poco distinto: entender qué es la "gatopardidad". ¿Cuáles son las características definitorias de lo que constituye la imagen de un gato en una fotografía?

Y una vez que se puede hacer eso, una vez que se tiene una función que puede describir "catness", bueno, entonces usted puede simplemente muestra de esa función y convertirla en todo tipo de nuevos gatos. Gatos que el algoritmo nunca ha visto antes, pero que tiene esta idea de la creatividad "gatuna" que se puede utilizar para crear nuevas imágenes.

Angélica: He oído describir a la IA como un niño, al que hay que enseñarle todo. Parte de una pizarra en blanco, pero con el paso de los años deja de serlo. Ha ido aprendiendo de todos los tipos de conjuntos de entrenamiento que le hemos ido dando. De varios investigadores, varios equipos en el transcurso del tiempo, por lo que ya no está en blanco, pero es interesante pensar en lo que nosotros como seres humanos damos por sentado y ser como, "Oh, eso es definitivamente un gato" ¿O qué es un gato frente a un león? ¿O un gato frente a un tigre? Esas son las cosas que conocemos, pero tenemos que enseñárselas a la IA.

. Están llegando a un punto en el que están superando eso. Empezaron con la idea de ser sistemas expertos... Estas cosas que sólo podían generar imágenes de gatos... sólo podían generar imágenes de perros.

Pero ahora estamos en este nuevo tipo de paradigma de pre-entrenamiento generativo, donde tienes estos modelos que son entrenados por estas grandes corporaciones y tienen el dinero para crear estas cosas, pero luego a menudo los abren a otros, y esos modelos son en realidad muy generalizados. Pueden convertir muy rápidamente sus conocimientos en otra cosa.

Así que si se entrenó en la generación de esta cosa, se hace lo que llamamos "ajuste fino", donde se entrena en otro conjunto de datos para aprender muy rápidamente cómo generar específicamente gatos de Bengala o tigres o cosas por el estilo. Pero esto se acerca cada vez más a lo que queremos de los algoritmos de inteligencia artificial.

Queremos que sean generalizados. No queremos tener que entrenar un modelo nuevo para cada tarea. Así que avanzamos en esa dirección. Y, por supuesto, aprenden de Internet. Así que cualquier cosa que esté en Internet probablemente estará en esos modelos.

Angélica: Sí. Hablando de ajuste fino, eso me recuerda a cuando estábamos haciendo un poco de I + D para un proyecto y estábamos buscando la manera de ajustar la difusión estable para un modelo de producto. Querían ser capaces de generar estos fondos distintivos, pero que el producto fuera siempre consistente ante todo. Y eso es complicado, ¿verdad? Cuando se piensa en la IA Generativa y se quiere hacer su propia cosa, ya sea porque no sabe mejor o que no eran necesariamente muy específicos en las instrucciones para poder obtener el producto coherente. Pero ahora, gracias a este ajuste, creo que el producto es más viable porque no tenemos la sensación de que sea una plataforma incontrolable. Es algo que realmente podríamos aprovechar para una aplicación que es más consistente de lo que podría haber sido de otra manera.

Así que la siguiente pregunta que tenemos es: con toda la atención que se está prestando a las indicaciones de Midjourney que se publican en LinkedIn y Twitter, ¿es la IA Generativa simplemente una cara bonita? ¿Sólo sirve para generar imágenes chulas?

Sam: Yo diría que no. No son sólo imágenes. Es audio. Es texto. Cualquier tipo de conjunto de datos que introduzcas en él debería ser capaz de crear ese modelo generativo en ese conjunto de datos. La cantidad de innovación en este campo es asombrosa.

Angélica: Lo que me parece realmente interesante de este campo no es sólo lo rápido que ha avanzado en tan poco tiempo, sino también que su aplicación ha sido tan amplia y variada.

Sam: Ajá.

Angélica: Así que hemos hablado de generar imágenes, generar texto y audio y vídeo, pero había visto que Stable Diffusion se está utilizando para generar diferentes tipos de espacios de RV, por ejemplo. O se trata de procesos impulsados por la difusión estable, o ni siquiera sólo difusión estable... sólo diferentes tipos de modelos de IA generativa para crear modelos 3D y poder crear todas estas otras cosas que están fuera de las imágenes. Hay tantos avances en tan poco tiempo.

Sam: Sí, puedes pensar en muchas de estas cosas como bloques de LEGO. Muchos de estos modelos de los que hablamos ya han superado este cambio de paradigma generativo de preentrenamiento, en el que se utilizan modelos increíblemente potentes entrenados por grandes empresas y se combinan para hacer diferentes tipos de cosas. Uno de los grandes que está impulsando esto, vino de OpenAI, fue CLIP. Este es el modelo que permite mapear texto e imágenes en el mismo espacio vectorial. Así que si pones una imagen y un texto, entenderá que son las mismas cosas desde un punto de vista muy matemático. Estas fueron algunas de las primeras cosas que la gente decía: "Oh, Dios mío, realmente puede generar texto y se ve como si un humano lo hubiera escrito y es coherente y vuelve sobre sí mismo. Sabe lo que escribió cinco párrafos atrás" Y así, la gente empezó a pensar: "¿Y si pudiéramos hacer esto con imágenes?" Y entonces tal vez en lugar de tener el texto y las imágenes mapeadas en el mismo espacio, ¿es texto a canción, o texto a modelos 3D?

Y así es como empezó todo esto. Hay gente que desciende por el árbol evolutivo de la IA y, de repente, alguien saca algo nuevo y la gente abandona ese árbol y pasa a otra rama. Y esto es lo interesante del asunto: Hagas lo que hagas, hay una forma genial de incorporar la IA Generativa a tu flujo de trabajo.

Angélica: Sí, eso me recuerda otra pregunta que recibimos que está un poco más abajo en la lista, pero creo que se relaciona muy bien con lo que acabas de mencionar. ¿Nos va a quitar el trabajo la IA Generativa? Recuerdo que hubo una conversación hace unos años, y sigue ocurriendo hoy también, en la que se decía que la industria creativa está a salvo de la IA. Porque es algo que los seres humanos toman la creatividad de una variedad de fuentes diferentes, y todos tenemos diferentes maneras de cómo obtenemos nuestras ideas creativas. Y hay una resolución de problemas que es inherentemente humana. Pero al ver que se generan todas estas ideas geniales, se crean cosas diferentes que incluso van más allá de lo que habríamos pensado. ¿Qué opinas al respecto?

Sam: Es una pregunta difícil. Es muy difícil predecir el futuro de estas cosas. ¿Lo tendrá? No lo sé.

Me gusta pensar en esto en términos de "tecnología de luz singular" Lo que quiero decir con tecnología de luz singular es una tecnología que puede acabar con industrias enteras. En la que estamos pensando ahora es la fotografía y el video de stock. Ya sabes, es difícil decir a esas empresas que no se enfrentan a un riesgo existencial cuando cualquiera puede descargar un algoritmo que básicamente puede generar la misma calidad de imágenes sin una suscripción.

Y si trabajas para una de esas empresas, puede que te quedes sin trabajo porque esa empresa va a quebrar. Ahora, ¿eso va a suceder? No lo sé. En su lugar, trata de entender cómo incorporarlo a tu flujo de trabajo. Creo que Shutterstock está incorporando esta tecnología en su línea de trabajo, también.

Creo que dentro de la industria creativa, deberíamos dejar de pensar que hay algo que un humano puede hacer que una IA no puede hacer. Creo que no va a ser una idea relevante en un futuro próximo.

Angélica: Sí. Mi perspectiva al respecto sería: no necesariamente nos va a quitar el trabajo, sino que va a evolucionar la forma en que enfocamos nuestros trabajos. Podríamos pensar en el ejemplo clásico de los editores de cine, que tenían que cortar bobinas físicas. Y cuando salen Premiere y After Effects, ese proceso se digitaliza.

Sam: Sí.

Angélica: Y luego más y más y más, ¿verdad? Así que todavía hay editores de vídeo, es sólo la forma en que abordan su trabajo es un poco diferente.

Y lo mismo aquí. Seguirá habiendo directores artísticos, pero será diferente su forma de enfocar el trabajo. Tal vez sea mucho más eficiente porque no necesariamente tienen que buscar inspiración en Internet. La IA generativa podría formar parte de esa búsqueda de inspiración. Formará parte de la generación de maquetas y no todo estará hecho por humanos. Y no tenemos por qué lamentar la pérdida de que no esté hecha al cien por cien por humanos. Será algo que permitirá a los directores artísticos, creativos y creadores de todo tipo ser capaces incluso de potenciar lo que pueden hacer actualmente.

Sam: Sí, eso es cierto. Siempre va a salir un producto de NVIDIA o Adobe que permita utilizar esta tecnología de una forma muy sencilla.

El mes pasado, muchas entradas de blog sacaron a relucir un buen punto: si eres una empresa de juegos independientes y necesitas algunas ilustraciones para tu trabajo, normalmente contratarías a alguien para que lo hiciera. Pero esta es una alternativa más barata y rápida. Y puedes generar mucho contenido en el transcurso de una hora, mucho más de lo que podría hacer un ilustrador contratado.

Probablemente no sea tan bueno. Pero para la gente con ese presupuesto, a ese nivel, puede que acepten la disminución de la calidad por la accesibilidad, la facilidad de uso. Hay lugares en los que podría cambiar la forma en que la gente está haciendo negocios, qué tipo de negocio que están haciendo.

Otra cosa es que a veces tenemos proyectos que para nosotros, no tenemos suficiente tiempo. No es suficiente dinero. Si lo hiciéramos, básicamente nos quitarían a todo nuestro equipo de ilustración para trabajar en este único proyecto. Y normalmente, si una empresa acudiera a nosotros y nosotros pasáramos de ella, irían a otra. Pero tal vez ahora que estamos invirtiendo más y más en esta tecnología, decimos: "Oye, escucha, no podemos poner a gente real en él, pero tenemos este equipo de ingenieros de IA, y podemos construir esto para ti" Para nuestro prototipo, eso es lo que realmente estábamos tratando de entender es ¿cuánto de esto podemos utilizar en este momento y cuánto beneficio nos va a dar? Y el beneficio era permitir a este pequeño equipo empezar a hacer cosas que los grandes equipos podrían hacer por una fracción del coste.

Creo que esa va a ser la naturaleza de este tipo de aceleración. Más y más gente va a utilizarlo para salir adelante. Y debido a eso, otras empresas harán lo mismo. Entonces se convierte en una especie de carrera armamentística de la creatividad de la IA, por así decirlo. Pero creo que las empresas que tienen la capacidad de contratar a personas que pueden ir a sus artistas y decir: "Oye, ¿qué cosas están teniendo problemas con? ¿Qué cosas no quieres hacer? ¿Qué cosas toman demasiado tiempo?" Y luego pueden mirar toda la investigación que está saliendo y decir: "Oye, ¿sabes qué? Creo que podemos utilizar este nuevo modelo para hacer mejor arte más rápido, mejor y más barato" Les protege de cualquier tipo de herramienta que surja en el futuro y que pueda dificultarles conseguir negocio. Como mínimo, entender cómo funcionan estas cosas y no desde una perspectiva de caja negra, sino entender cómo funcionan.

Angélica: Parece una apuesta segura, al menos a corto plazo, es sólo para entender cómo funciona la tecnología. Escuchar este podcast es un buen comienzo.

.

Angélica: ¿Verdad?

Sam: Si eres un artista y tienes curiosidad, puedes jugar con ello por ti mismo. Google CoLab es un gran recurso. Y Stable Diffusion está diseñado para funcionar con GPU baratas. O puedes empezar a utilizar estos servicios como Midjourney, para tener un mejor control de lo que está pasando con él y lo rápido que se está moviendo.

Angélica: Sí, exactamente. Otra pregunta que surgió es: si creo algo con IA Generativa a través de Prompt Engineering, ¿ese trabajo es realmente mío?

Sam: Esto empieza a ser una cuestión un poco más filosófica. ¿Es mío en el sentido de que me pertenece? Bueno, si el modelo lo dice, entonces sí. Creo que Stable Diffusion viene con una licencia MIT. Es la licencia más permisiva. Si generas una imagen con eso, entonces es técnicamente tuya, siempre que alguien no venga y diga: "La gente que hizo Stable Diffusion no tenía los derechos para ofrecerte esa licencia"

Pero hasta que eso ocurra, entonces sí, es tuyo desde el punto de vista de la propiedad. ¿Es usted el creador? ¿Es usted la persona creativa que lo genera? Esa es otra cuestión. Eso se vuelve un poco más turbio. ¿Qué diferencia hay entre un director creativo y un ilustrador que van y vienen diciendo:

"Quiero esto."

"No, no quiero eso."

"No, tienes que arreglar esto"

"Oh, me gustó lo que hiciste ahí."

"Eso es realmente genial. No había pensado en eso"

¿Quién es el propietario en esa solución? Idealmente, es la empresa que contrata a ambos. Esto es algo que va a tener que jugar en los tribunales legales si llegan allí. Sé que mucha gente ya tiene opiniones sobre quién va a ganar todos los desafíos legales, y eso está empezando a suceder ahora mismo.

Angélica: Sí, por lo que he visto en muchas discusiones, es una especie de plataforma de co-creación, donde tienes que saber qué decir para conseguir que sea el resultado correcto. Si dices: "Quiero una escena submarina con sirenas flotando y corales dorados de neón", generará ciertos tipos de imágenes basándose en eso, pero puede que no sean las que tú quieres.

Ahí es donde entra en juego el estilo y las referencias. Ahí es donde entran en juego los artistas, cuando se trata de una versión de Dalí o Picasso de una escena submarina. Incluso hemos visto mensajes que usan Unreal...

Sam: Mm-hmm

Angélica: ...como forma de describir estilos artísticos. La IA generativa podría crear cosas a partir de un mensaje básico. Pero hay un tira y afloja, algo parecido a lo que describías con un director y un ilustrador, para saber exactamente qué resultados obtener y usar las palabras adecuadas y los términos clave y el ajuste fino para conseguir el resultado deseado.

Sam: Sin duda, y creo que es una pregunta muy específica para esta generación de modelos. Están diseñados para trabajar con texto a imagen. Hay muchas razones por las que son así. Muchas de estas investigaciones se basan en los transformadores, que inicialmente eran modelos de generación de lenguaje. Si hablas con cualquier tipo de artista, la idea de que estás creando arte tecleando es muy contraria a lo que pasaron años aprendiendo y entrenándose para hacer. Ya sabes, los artistas crean imágenes dibujando o pintando o manipulando software creativo y su interfaz mucho más gestual. Y creo que a medida que la tecnología evoluciona - y definitivamente cómo queremos empezar a construir más y más de estas tecnologías para que sea más ingeniería con el artista en mente - creo que vamos a ver más de estas interfaces de imagen.

Y Stable Diffusion tiene eso, puedes dibujar una especie de imagen tipo MS paint y luego decir: "Muy bien, ahora quiero que esto sea una imagen de un paisaje, pero en el estilo de un artista específico" Así que no se trata sólo de escribir el texto y esperar a que llegue el resultado, sino que yo también dibujo. Así que ambos trabajamos en mayor colaboración. Pero también creo que en el futuro habrá algoritmos que estén más en sintonía con artistas concretos. Al igual que la persona que lo está haciendo, cómo les gusta hacer arte. Creo que este problema va a ser menos de una cuestión en el futuro. En un momento dado, todas estas cosas estarán en tu Photoshop o en tu software creativo, y en ese momento, ya ni siquiera pensaremos en ello como IA. Sólo será una herramienta que usaremos en Photoshop. Ya existen filtros neuronales en Photoshop: el relleno Content Aware. Nadie se plantea estas cuestiones cuando ya las utiliza. Ahora mismo estamos en un ámbito en el que se plantean muchas preguntas.

Angélica: Sí. Las ejecuciones más interesantes de la tecnología han sido cuando se desvanece en el fondo. Por ejemplo, no decimos necesariamente: "Eso es inteligencia artificial" o "Sí, eso es realidad aumentada". Eso también es un clásico. Simplemente la conocemos por la utilidad que nos proporciona. Y como Google Translate, por ejemplo, que podría asociarse a la RA si utilizas la cámara y realmente superpone el texto delante. Pero la mayoría de la gente no piensa en Google Translate usando RA. No pensamos en ello así. Sólo pensamos, "Oh, vale, guay. Esto me está ayudando"

Sam: Sí, sólo piensa en todos los estudiantes que están solicitando entrar en la escuela de arte este año y van a entrar en su licenciatura de arte y para el próximo año va a ser más fácil de usar toda esta tecnología. Y creo que su comprensión de la misma va a ser muy diferente de nuestra comprensión de las personas que nunca tuvieron esta tecnología cuando estábamos en el pregrado. Ya sabes, está cambiando muy rápidamente. También está cambiando muy rápidamente la forma de trabajar de la gente.

Angélica: Correcto. Otra pregunta se refería al uso de los derechos de autor, que has tocado un poco, y eso es algo que es una conversación en evolución ya en los tribunales, o incluso fuera de los tribunales, o si usted está buscando en los términos y condiciones de Midjourney y DALL-E y difusión estable.

Sam: Cuando descargas el modelo de Hugging Face, tienes que aceptar ciertos términos y condiciones. Creo que es básicamente un parche legal para ellos.

Angélica: Sip.

Sam: Si las uso, ¿me van a demandar? Tendrás que hablar con un abogado especializado en derechos de autor, pero no creo que ellos sepan la respuesta todavía. Lo que sí te diré es que muchas de las empresas que crean estos algoritmos (OpenAIs, Google, NVIDIA) también cuentan con grandes grupos de presión y van a intentar imponer la ley de forma que no les demanden. Ahora bien, es posible que lo veas en un futuro próximo porque estas empresas pueden invertir tanto dinero en la cuestión legal que, en virtud de protegerse a sí mismas, protegen a todas las personas que utilizan su software. La forma en que me gusta hablar de ello es, y tal vez estoy saliendo conmigo mismo, pero si usted piensa en todo el camino a principios de 2000 con Napster y el intercambio de archivos, no funcionó muy bien para los artistas. Y esa tecnología ha cambiado por completo su industria y su forma de ganar dinero. Los artistas ya no ganan dinero vendiendo discos porque cualquiera puede conseguirlos gratis. Ahora ganan dinero sobre todo con la mercancía y las giras. Quizá ocurra algo parecido.

Angélica: Sí. Cuando usted trajo a Napster, que me recordó a una historia sidetrack donde tengo Napster y era legítimo en ese momento, pero cada vez que yo estaba como, "Oh, sí, tengo esta canción en Napster" Eran como, "Mmmm?" Me miraban de reojo por la procedencia de Napster y las descargas ilegales. Es como: "No, es legal. Te juro que acabo de recibir una tarjeta regalo"

Sam: [risas] Bueno, sí, muchos de nosotros ahora escuchamos toda nuestra música en Spotify. Eso evolucionó de una manera en la que están pagando a los artistas de una manera específica que a veces es muy depredadora y algo así podría suceder a los artistas en estos modelos. No parece que la historia ofrezca buenos ejemplos en los que los artistas salgan ganando. Así que, de nuevo, algo en lo que pensar si eres uno de estos artistas. ¿Cómo me preparo para esto? ¿Cómo lo afronto? Al fin y al cabo, la gente va a seguir queriendo que su mejor ilustrador de fantasía trabaje en su proyecto, pero quizá la gente que no es tan famosa sufra un poco más.

Angélica: Correcto. También ha habido un debate sobre si se puede eximir a los artistas de participar en los prompts Por ejemplo, hubo un hilo muy largo en Twitter, lo enlazaremos en las notas del programa, pero se discutía más o menos cómo había mucho arte que se estaba generando utilizando su nombre en el prompts, y se parecía mucho a lo que ella crearía. ¿Debería obtener una comisión porque utilizó su nombre y su estilo para ser capaz de generar eso? Esas son las preguntas. O si son capaces de obtener una exención, ¿eso también impide el tipo de producción creativa que la IA Generativa es capaz de crear? Porque ahora ya no es un foro abierto donde se puede utilizar cualquier artista. Y ahora vamos a ver muchos usos de Picasso porque ese no ha sido eximido. O más artistas independientes que no están representados porque no quieren.

Sam: No creo que las empresas que crean estas exenciones vayan a funcionar realmente. Una de las cosas que más me gustan de la inteligencia artificial es que es una de las tecnologías de alta tecnología más avanzadas que han existido nunca, y también una de las más abiertas. Así que va a funcionar en sus plataformas porque pueden controlarla, pero es una tecnología extremadamente abierta. Todas estas empresas están poniendo algunos de sus códigos y modelos de trenes más estelares. Ahora existe DreamBooth, donde básicamente se puede tomar Stable Diffusion y luego afinarlo en artistas específicos utilizando un centenar o menos de imágenes más o menos.

Incluso si una empresa crea estas exenciones, no se pueden crear imágenes en Midjourney o DALL-E 2 en el estilo de Yoshitaka A mano o algo así, no sería tan difícil para alguien simplemente descargar todos los modelos de trenes libres, entrenarlo en imágenes de Yoshitaka Amano, y luego crear arte como eso. La barrera de entrada para hacer estas cosas no es tan alta como para que esto sea una solución.

Angélica: Sí, las principales plataformas podrían ayudar a conseguir exentos, pero si alguien fuera a entrenar su propio modelo, entonces todavía podría hacer eso.

Sam: Está empezando a convertirse en una especie de salvaje oeste, y puedo entender por qué ciertos artistas están enfadados y nerviosos. Es que... es algo que está pasando y si quieres pararlo, ¿cómo lo paramos? Tiene que venir de una idea legal muy concertada. Un montón de gente reunida diciendo: "Tenemos que hacer esto ahora y así es como queremos que funcione" Pero, ¿pueden hacer eso más rápido de lo que las empresas pueden presionar para decir: "No, podemos hacer esto" Ya sabes, es muy difícil para los pequeños grupos de artistas luchar contra las corporaciones que básicamente dirigen todas nuestras tecnologías.

Es algo interesante. No sé cuál es la respuesta. Probablemente deberíamos hablarlo con un abogado.

Angélica: Sí. Hay otras tecnologías que tienen un enigma similar también. Con la tecnología emergente es difícil controlar estas cosas, sobre todo cuando es tan abierta y cualquiera puede contribuir de forma positiva o negativa.

Sam: Sí, al cien por cien.

Angélica: Eso nos lleva a nuestra última pregunta. En realidad no es una pregunta, sino más bien una afirmación. Mencionaron que la IA Generativa parece estar creciendo muy rápido y que pronto se saldrá de control. Desde mi punto de vista, ya está empezando a hacerlo debido a la rápida iteración que se está produciendo en este corto periodo de tiempo.

Sam: Incluso para nosotros, pasamos tiempo diseñando estas herramientas, creando estos proyectos que las usan y estaremos a mitad de camino y hay todas estas nuevas tecnologías que podrían ser mejores para usar. Sí, da un poco de ansiedad como, "¿Estoy usando la correcta? ¿Qué va a tomar para cambiar la tecnología en este momento? " ¿Esperas a que la tecnología avance, a que sea más barata?

Si piensas en una empresa como Midjourney gastando todo este dinero de inversión en la creación de esta plataforma, porque teóricamente sólo tú puedes hacer esto y es muy difícil para otras empresas recrear tu negocio. Pero luego, seis meses más tarde, sale Stable Diffusion. Es de código abierto, cualquiera puede descargarlo. Y dos meses después alguien abre una plataforma web escalable. Es ese tipo de cosas que evolucionan tan rápido. ¿Y cómo tomar decisiones de negocio al respecto? Está cambiando mes a mes en este momento. Antes cambiaba más o menos cada año, pero ahora es demasiado rápido. Parece que está empezando, de nuevo, a convertirse en ese tipo de tecnología de luz singular. ¿Quién puede decir que va a seguir así? Es tan difícil predecir el futuro con estas cosas. Es más lo que puedo hacer ahora y ¿me va a ahorrar dinero o tiempo? Si no, no lo hagas. Si es que sí, hazlo.

Angélica: Sí. Los tipos de tecnologías que despiertan más entusiasmo son las que movilizan a diferentes tipos de personas, lo que hace que la tecnología avance mucho más rápido. Parece que a principios de verano oíamos: "DALL-E 2, ¡viva! Impresionante" Y luego parecía que fue exponencialmente rápido a partir de ahí sobre la base de una gran parte del impulso. Probablemente hubo muchas cosas entre bastidores que hicieron que pareciera exponencial. ¿Dirías que se debió a un gran interés que atrajo a mucha gente hacia el mismo tema en un momento dado? ¿O crees que siempre se ha llegado a este punto?

Sam: Sí, creo que sí. Siempre que empiezas a ver una tecnología que realmente empieza a cumplir lo que promete, creo que, de nuevo, mucha gente se interesa por ella. Lo mejor de Stable Diffusion es que ha sido capaz de utilizar un tipo de modelo diferente para comprimir el tamaño real de entrenamiento de las imágenes, lo que le ha permitido entrenarse más rápido y poder entrenarse y ejecutarse en una sola GPU. Así es como funcionan muchas de estas cosas. Generalmente hay una gran empresa que crea el "Hemos descubierto cómo hacer esto" Y luego todas estas otras empresas y grupos e investigadores dicen: "Muy bien, ahora sabemos cómo hacer esto. ¿Cómo lo hacemos más barato, más rápido, con menos datos, y más potente? " Y cada vez que sale algo así, la gente empieza a invertir mucho tiempo y dinero en ello.

DALL-E fue esta cosa que me gusta decir que realmente demostró la aritmética creativa. Cuando dices, quiero que me dibujes un Pikachu sentado en una cabra. Y no sólo sabe cómo son Pikachu y una cabra, sino que entiende que para que creamos que está sentado sobre ella, y tienes que tenerlo sentado en un espacio muy específico. Las piernas de Pikachu están a ambos lados.

La idea de que una máquina pueda hacer eso, algo tan parecido a la forma de pensar de los humanos, entusiasmó a mucha gente. Y en ese momento era sólo, creo que en ese momento era como, 256 píxeles por 256. Pero ahora estamos haciendo 2048 por 24 ... cualquier tamaño que desee. Y eso es sólo dos años más tarde. Así que sí, un montón de emoción, obviamente.

Creo que es una de esas tecnologías que realmente entusiasma a la gente porque está empezando a cumplir la promesa de la IA. Al igual que los coches autoconducidos, la inteligencia artificialplegando proteínas,cada vez se ven más ejemplos de lo que podría ser y de lo emocionante y beneficiosa que puede llegar a ser.

Angélica: ¡Impresionante! Bueno, hemos cubierto un poco, un montón de gran información aquí. Gracias de nuevo, Sam, por venir al programa.

Sam: Sí, gracias por invitarme.

Angélica: ¡Gracias a todos por escuchar el podcast Scrap The Manual!

Si te gusta lo que escuchas, por favor suscríbete y comparte Puedes encontrarnos en Spotify, Apple Podcasts y dondequiera que obtengas tus podcasts. Si quieres sugerirnos temas, ideas para segmentos o comentarios en general, no dudes en enviarnos un correo electrónico a scrapthemanual@mediamonks.com. Si quieres colaborar con Labs.Monks, no dudes en ponerte en contacto con nosotros en esa misma dirección de correo electrónico. Hasta la próxima

Sam: ¡Adiós!

Related
Pensamiento

Acelera nuestro corazón digital

Reciba nuestro boletín con inspiración sobre las últimas tendencias, proyectos y mucho más.

Gracias por inscribirte

Continue exploring

Media.Monks necesita la información de contacto que usted nos facilita para ponerse en contacto con usted en relación con nuestros productos y servicios. Puede darse de baja de estas comunicaciones en cualquier momento. Para obtener información sobre cómo darse de baja, así como nuestras prácticas de privacidad y el compromiso de proteger su privacidad, por favor revise nuestra Política de Privacidad.

Elija su idioma

Elija su idioma

El sitio web se ha traducido al Español con la ayuda de humanos e IA

Desestimar