Meta amplía las capacidades de su IA Llama para incluir imágenes

hace 3 semanas

Meta ha dado un paso adelante en el ámbito de la inteligencia artificial con la última actualización de su familia de

Meta ha dado un paso adelante en el ámbito de la inteligencia artificial con la última actualización de su familia de modelos Llama. En el evento anual Meta Connect 2024 en Menlo Park, la compañía presentó la versión 3.2 de Llama, que ahora incluye soporte para imágenes, además de texto.

Índice
  1. La multimodalidad de Llama
  2. Disponibilidad global y restricciones en Europa
  3. Modelos más compactos
  4. El impacto de Meta en la IA

La multimodalidad de Llama

La nueva versión 3.2 de Llama introduce capacidades multimodales en los modelos 11B y 90B. Estos modelos pueden interpretar gráficos y diagramas, etiquetar imágenes y localizar objetos en fotografías a partir de descripciones simples. Por ejemplo, Llama 3.2 puede responder preguntas sobre la inclinación del terreno en un mapa de un parque o identificar los meses de mejor rendimiento en un gráfico de ingresos de una empresa.

Para los desarrolladores que prefieren utilizar los modelos solo para aplicaciones de texto, Llama 3.2 está diseñado como un reemplazo directo de la versión 3.1. Además, estos modelos pueden implementarse con o sin la nueva herramienta de seguridad Llama Guard Vision, que detecta contenido potencialmente dañino o tóxico.

Disponibilidad global y restricciones en Europa

Los modelos multimodales de Llama están disponibles en varias plataformas en la nube como Hugging Face, Microsoft Azure, Google Cloud y AWS. También se pueden descargar desde el sitio oficial de Llama, Llama.com, y se utilizan para potenciar el asistente de IA de Meta en aplicaciones como WhatsApp, Instagram y Facebook.

Sin embargo, Llama 3.2 no está disponible en Europa debido a las regulaciones impredecibles de la región. Meta ha expresado su preocupación por la Ley de IA de la UE, que requiere que las empresas desarrolladoras de IA evalúen si sus modelos se utilizarán en situaciones de alto riesgo, como en la vigilancia policial. Meta teme que la naturaleza abierta de sus modelos dificulte el cumplimiento de estas normativas.

Modelos más compactos

Además de los modelos multimodales, Meta ha lanzado versiones más ligeras, como Llama 3.2 1B y 3B, diseñadas para funcionar en smartphones y otros dispositivos. Estos modelos pueden resumir y reescribir párrafos y están optimizados para hardware de Qualcomm y MediaTek. También pueden integrarse con aplicaciones como calendarios para realizar acciones de forma autónoma.

El impacto de Meta en la IA

El CEO de Meta, Mark Zuckerberg, ha hablado sobre la importancia de asegurar que todos tengan acceso a los beneficios de la IA. Meta ha invertido millones en modelos que puede comercializar, lo que obliga a la competencia a reducir precios y permite a Meta incorporar mejoras de la comunidad de código abierto. Los modelos Llama de Meta han sido descargados más de 350 millones de veces y son utilizados por grandes empresas como Zoom, AT&T y Goldman Sachs.

A pesar de sus esfuerzos, Meta aún enfrenta desafíos significativos, como la tendencia de los modelos de IA a generar información incorrecta o a reutilizar datos problemáticos de entrenamiento. Sin embargo, la compañía sigue avanzando en su objetivo de convertirse en sinónimo de IA generativa.

Para más información sobre Meta y sus desarrollos en inteligencia artificial, visita su sitio web oficial.

Si quieres conocer otros artículos parecidos a Meta amplía las capacidades de su IA Llama para incluir imágenes puedes visitar la categoría Noticias.

Agregar un comentario

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

Tu puntuación: Útil

Subir