Nueva mesa directiva de OpenAI

Además, Stability convierte imagenes en videos con IA

Buenos días 🤘

Stability AI ha lanzado Stable Video Diffusion, capaz de transformar imágenes en videos cortos, marcando un avance significativo en la creación de contenido AI. Por otro lado, OpenAI remodela su junta directiva, con figuras como Bret Taylor y Larry Summers, preparándose para una mayor expansión y desafíos regulatorios.

Temas del día

📽️ Stability AI convierte imágenes en videos.
🚀 Open AI estrena nueva mesa directiva.
🛠️ Herramientas de IA
💬 Técnica OPRO para optimizar prompts en ChatGPT.

Para leer todas las notas en español sin importar el idioma original del sitio web, sigue las instrucciones de esta liga.

Para leer artículos de páginas web que requieren suscripciones utiliza 12ft para leerlos gratis.

Snacks

  • Google Maps implementó un nuevo esquema de colores más suave en la aplicación, con carreteras en tonos de gris y algunos otros cambios sutiles. Algunos usuarios se quejan de los colores brillantes, mientras que otros dicen que les gusta la actualización.

  • La integración de YouTube de Bard ya puede analizar videos específicos para brindar información como ingredientes de recetas sin necesidad de ver el video.

  • La NLRB acusa a Apple de negar beneficios a trabajadores sindicalizados en Maryland para desincentivar la sindicalización; audiencia sobre la denuncia en febrero 2024.

  • Matthew Butterick, abogado y diseñador, lidera demandas contra empresas de IA por usar datos protegidos para entrenar modelos. Los fallos podrían forzar cambios radicales en las prácticas de IA generativa.

Inteligencia Artificial

📽️ Nueva herramienta de Stability AI convierte imágenes en videos

Stability AI

La empresa detrás de Stable Diffusion, uno de los modelos de imágenes generativas más populares, acaba de dar un paso más en el territorio de la inteligencia artificial generativa. Stability AI lanzó Stable Video Diffusion, una herramienta capaz de crear videos de hasta 25 fotogramas a partir de una sola imagen estática.

Según la compañía, en evaluaciones externas este modelo supera a plataformas cerradas líderes en preferencia de los usuarios. Por ahora solo está disponible para investigación, no para uso comercial, pero muestra aplicaciones potenciales en sectores como publicidad, educación y entretenimiento.

Si bien la calidad parece relativamente alta en las muestras iniciales, la herramienta aún adolece de algunas limitaciones. No puede lograr un fotorrealismo perfecto, hace videos muy cortos (menos de 4 segundos), y tiene dificultades para generar texto legible o caras y figuras humanas de manera adecuada.

El origen del conjunto de datos utilizado para entrenar los modelos es importante, dado que Stability AI fue demandada recientemente por usar contenido con derechos de autor de Getty Images. Y a diferencia de OpenAI con ChatGPT, esta empresa ha tenido menos éxito comercializando su tecnología, a la vez que gasta dinero rápidamente.

El video generativo es una meta clave en IA dada la capacidad para revolucionar la creación de contenidos. Pero también conlleva riesgos significativos como la proliferación de deepfakes y violaciones masivas de propiedad intelectual.

Tech

🚀 Así luce la nueva mesa directiva de OpenAI

OpenAI se inclina más hacia una estructura de gobierno corporativo tradicional, en lugar de la configuración académica e investigativa original. Los nuevos directores aportan una amplia experiencia en negocios y tecnología, lo que podría preparar mejor a la compañía para la masiva afluencia de efectivo y el intenso escrutinio regulatorio que enfrenta.

Estos son los cambios más relevantes de la mesa directiva:

- Bret Taylor: Presidente de la junta. Es miembro de la junta de Shopify y ex codirector ejecutivo de Salesforce. Cofundó Quip y tiene su propia startup de IA. Aporta experiencia en negocios y tecnología.

- Larry Summers: Fue secretario del Tesoro de Estados Unidos y presidente de Harvard. Tiene conexiones en Washington que podrían ser valiosas para OpenAI en medio del escrutinio regulatorio. Comparó a ChatGPT con tecnologías revolucionarias como la imprenta.

- Adam D'Angelo: CEO de Quora. Es el único miembro restante de la junta anterior. Se dice que jugó un papel clave en la restitución de Altman.

Ya no están en la junta:

- Helen Tóner: Crítica pública de OpenAI. Fue una de las directoras que sacaron a Altman.

- Tasha McCauley: Científica adjunta de Rand Corporation. No ha hecho comentarios desde el derrocamiento de Altman.

- Ilya Sutskever: Cofundador y científico jefe de OpenAI. Inicialmente, apoyó la salida de Altman, pero luego se retractó.

Se espera que la junta se amplíe con más miembros experimentados. Esto podría indicar que OpenAI se está transformando en una startup más tradicional.

Herramientas de IA

  • Avatar AI - Crea identidades digitales únicas.

  • HeyPhoto - Personaliza tus selfies, fotografías colectivas y creaciones de Midjourney alterando rasgos como la expresión ocular, estructura nasal, color de piel, edad y peinado.

  • HeyGEN - Con un solo clic, convierte tus videos a cualquier idioma.

Cómo Utilizar la Técnica OPRO de DeepMind para Optimizar Prompts en ChatGPT

La técnica OPRO (Optimización mediante PROmpting) de DeepMind es un método innovador para mejorar la precisión de las respuestas en modelos de lenguaje grande (LLM) como ChatGPT. Este tutorial te guiará sobre cómo aplicar OPRO para optimizar tus prompts.

Paso 1: Comprender OPRO

  • Concepto Básico: OPRO utiliza LLM como optimizadores, permitiendo describir problemas de optimización en lenguaje natural y generar soluciones de forma iterativa.

  • Meta-mensaje: Comienza con un meta-mensaje que incluye una descripción del problema y ejemplos de soluciones.

Ejemplo: Imagina que quieres optimizar un prompt para generar un resumen de un artículo científico. El meta-mensaje inicial podría ser: "Necesito resumir artículos científicos de manera concisa y precisa".

Paso 2: Generación y Evaluación de Soluciones

  • Generar Soluciones Candidatas: Basándose en el meta-prompt, el LLM propone soluciones.

  • Evaluación y Retroalimentación: Estas soluciones se evalúan y sus puntuaciones se añaden al meta-mensaje para refinar futuras propuestas.

Ejemplo de Generación de Soluciones: El LLM podría sugerir diferentes formulaciones para el prompt, como "Resumir el artículo científico enfocándose en los hallazgos principales" o "Crear un resumen breve del artículo, destacando las conclusiones y metodología".

Ejemplo de Evaluación: Luego evaluarías cada prompt generado utilizando criterios como claridad, concisión y precisión, asignando una puntuación a cada uno.

Paso 3: Uso Práctico de OPRO

  • Optimización de Indicaciones: OPRO puede ayudar a encontrar la indicación que maximice la precisión de las respuestas para tareas específicas.

    • Ejemplo: En un caso, agregar frases como "Pensemos detenidamente en el problema" mejoró la precisión de las respuestas.

Ejemplo: Supongamos que descubres que la formulación "Resumir enfocándose en hallazgos y metodología" produce los mejores resúmenes. Este sería entonces el prompt optimizado para usar en futuras tareas similares.

Paso 4: Aplicación de OPRO

  • Implementación Personalizada: Aunque el código de OPRO no está publicado, su concepto intuitivo permite crear una implementación personalizada.

  • Guía LlamaIndex: Sigue guías disponibles como la de LlamaIndex para aplicar OPRO en tareas específicas.

Ejemplo de Implementación Personalizada: Podrías crear un script que automatice este proceso, alimentando diferentes variantes de prompts al LLM y recogiendo las respuestas para su evaluación.

Ejemplo de Guía LlamaIndex: Siguiendo una guía existente, podrías adaptar los ejemplos y procedimientos a tu contexto específico, como usar un modelo LLM diferente o ajustar los criterios de evaluación.

Paso 5: Experimentación y Ajuste

  • Iteración: Experimenta con diferentes meta-mensajes y ajusta según los resultados obtenidos.

  • Adaptación: Adapta la técnica a diferentes modelos LLM según tus necesidades.

Ejemplo de Iteración: Si los resúmenes generados inicialmente no son satisfactorios, podrías ajustar el meta-mensaje para incluir ejemplos de buenos resúmenes que hayas visto, pidiendo al modelo que imite ese estilo.

Ejemplo de Adaptación: Si estás trabajando con un modelo LLM diferente del mencionado en la guía, adaptarías el proceso de generación y evaluación de prompts para alinearlo con las características específicas de ese modelo.

Paso 6: Exploración y Expansión

  • Amplia Aplicabilidad: OPRO tiene un gran potencial en distintos ámbitos, desde problemas matemáticos hasta tareas de recuperación de generación aumentada (RAG).

  • Exploración Continua: El campo está en constante evolución, con nuevas aplicaciones y mejoras.

Ejemplo de Aplicabilidad Amplia: Una vez que domines OPRO para resúmenes de artículos científicos, podrías explorar su uso para otros tipos de contenido, como generar guiones para videos educativos o escribir preguntas de entrevista.

Ejemplo de Exploración Continua: Mantente al tanto de las últimas investigaciones en OPRO y LLM para adaptar nuevas técnicas y mejorar continuamente el proceso de optimización.

Conclusión

La técnica OPRO de DeepMind representa un avance significativo en la optimización de prompts para LLM. Al aplicar estos pasos, puedes mejorar notablemente la precisión y efectividad de tus consultas a modelos como ChatGPT, adaptando y refinando tus estrategias de acuerdo con las respuestas obtenidas.

Canciones que escuchamos en esta edición:

Escucha nuestra playlist en Spotify:

¿Qué te pareció esta edición?

¡Tus comentarios me ayudan a crear mejores correos electrónicos!

Login or Subscribe to participate in polls.

Gracias por leernos, hasta la próxima edición.

- Eduardo 🐒 

Si deseas suscribirte a esta newsletter o compartirlo con amigos y colegas, comparte esta liga.