Meta apuesta por integrar inteligencia artificial en WhatsApp, Instagram y Facebook

Meta apuesta por integrar inteligencia artificial en WhatsApp, Instagram y Facebook

El modelo lingüístico Llama 3 de Meta promete adelantar a GPT-4 con acceso a más de 3.000 millones de usuarios. – (Imagen Ilustrativa Infobae)

 

Con el anuncio de su nuevo modelo Llama 3, Meta se prepara para llevar la inteligencia artificial a WhatsApp, Instagram y Facebook. Se trata de un movimiento que podría poner el modelo en manos de más de 3.000 millones de usuarios diarios. Este flujo sin precedentes de datos de interacción entre humanos e IA podría ayudar a Meta a tomar la delantera en la carrera de la IA.

Por Infobae

Durante el último año, el GPT-4 de OpenAI ha sido el gran modelo lingüístico dominante. La popularidad del LLM eclipsa la de las ofertas rivales de Google, Meta y Mistral, pero la diferencia en la calidad del modelo es cada vez menor. Después del Command R+ de Cohere, Llama 3 es el segundo modelo disponible abiertamente este mes que supera al GPT-4 original en el popular. En los últimos días, hemos visto cómo Microsoft lanzaba sus modelos Phi-3, e incluso Snowflake entraba en la carrera con un LLM propio. El sector de los modelos lingüísticos está cada vez más saturado y sus protagonistas luchan por diferenciarse.

“La intensa competencia da lugar a un espacio en rápida evolución”. Un avance técnico increíble puede convertirse en un juego de niños en cuestión de meses, ya que los competidores adaptan rápidamente su enfoque. La innovación en arquitecturas y algoritmos no se ha traducido en una ventaja competitiva defendible. Tampoco lo han hecho el presupuesto o la escala, incluso cuando las grandes tecnológicas y las sociedades de capital riesgo invierten miles de millones de dólares en financiación. “La única forma de encontrar una ventaja duradera es a través de más y mejores datos”.

Un bucle de retroalimentación positiva para la IA

Las investigaciones que acompañan a las recientes publicaciones de LLM han demostrado que incluso los modelos entrenados con miles de millones de palabras de texto de entrenamiento siguen estando poco entrenados. “Aumentar el volumen y la calidad de los datos es una forma probada de mejorar el rendimiento”. Dado que los principales actores ya consumen la mayor parte de los datos de entrenamiento públicos adecuados, el siguiente lugar en el que habrá que fijarse será el propio uso de LLM.

Para leer la nota completa, aquí

Exit mobile version