Han pasado un año desde que Meta lanzó Llama 1 y solo unos meses desde que presentaron Llama 2, seguido del lanzamiento de Code Llama. En resumen, la respuesta de la comunidad ha sido asombrosa. Hemos visto un gran impulso e innovación, con más de 30 millones de descargas de modelos basados en Llama a través de Hugging Face y más de 10 millones de ellas solo en los últimos días. Al igual que PyTorch, Llama se ha convertido en una plataforma sobre la que todo el mundo puede construir, y no podríamos estar más satisfechos.

Varios avances notables que marcan el crecimiento de la comunidad Llama:

  • Uso de la nube: Las principales plataformas como AWS, Google Cloud y Microsoft Azure han adoptado los modelos de Llama en sus plataformas, y la presencia de Llama 2 en la nube se está expandiendo. Hoy, hemos anunciado que AWS es nuestro primer socio de API gestionado por Llama 2. Ahora, organizaciones de todos los tamaños pueden acceder a los modelos de Llama 2 en Amazon Bedrock sin tener que gestionar la infraestructura subyacente. Esto supone un cambio radical en la accesibilidad. Además, hasta la fecha, el uso ha sido increíble, ya que Google Cloud y AWS han sido testigos de más de 3,500 proyectos empresariales basados en los modelos de Llama 2.
  • Innovadores: Los innovadores y los startups están haciendo de Llama la base de su innovación en productos de IA generativa. Decenas de miles de startups están utilizando o evaluando Llama 2, incluidas Anyscale, Replicate, Snowflake, LangSmith, Scale AI y muchas otras. E innovadores como DoorDash lo están utilizando para experimentar a escala antes de lanzar nuevas funciones impulsadas por LLM.
  • Optimización de código abierto: La comunidad de código abierto ha adoptado nuestros modelos. Hasta la fecha, la comunidad ha perfeccionado y publicado más de 7,000 derivados de Hugging Face. En promedio, en las pruebas de referencia estándar, han mejorado el rendimiento en casi un 10%, con mejoras notables de hasta el 46% en conjuntos de datos de referencia como TruthQA.
  • Comunidad de desarrolladores: Ya hay más de 7,000 proyectos en GitHub basados en Llama o que lo mencionan. Se están desarrollando nuevas herramientas, bibliotecas de desarrollo, métodos para la evaluación de modelos e incluso versiones «diminutas» de Llama para llevar Llama a dispositivos periféricos y plataformas móviles. Además, la comunidad ha ampliado Llama para que admita ventanas contextuales más grandes, ha añadido compatibilidad con idiomas adicionales y mucho más.
  • Compatibilidad con hardware: La comunidad de hardware ha adoptado plenamente Llama como modelo clave de arquitectura. Grandes plataformas de hardware como  AMD, Intel, Nvidia y Google han mejorado el rendimiento de Llama 2 mediante optimizaciones de hardware y software.

El ecosistema es muy dinámico y cuenta con participantes en todas las capas de la cadena, desde servidores y hardware móvil hasta plataformas en la nube, startups y empresas.

Con la última versión de Code Llama, estos modelos estuvieron disponibles en muchas de estas plataformas en cuestión de horas, creando un increíble nivel de velocidad para la comunidad.