
Con el anuncio de su nuevo modelo Llama 3, Meta se prepara para poner la inteligencia artificial en WhatsApp, Instagram y Facebook. Es un movimiento que eventualmente podría poner el modelo en manos de más de 3 mil millones de usuarios diarios. Este flujo sin precedentes de datos de interacción entre humanos e IA podría ayudar a Meta a avanzar en la carrera de la IA, de acuerdo a lo publicado por finance.yahoo.com.
Durante el último año, GPT-4 de OpenAI ha sido el modelo de lenguaje grande dominante. La popularidad del LLM empequeñece a la de las ofertas rivales de Google, Meta y Mistral, pero la brecha en la calidad del modelo es cada vez menor. Después del Command R+ de Cohere, Llama 3 es el segundo modelo disponible abiertamente este mes que supera al GPT-4 original en el popular LMSYS Chatbot Arena. En los últimos días, vimos a Microsoft lanzar sus modelos Phi-3, e incluso Snowflake entró en la carrera con un LLM propio. El espacio de los modelos lingüísticos está cada vez más abarrotado y sus jugadores luchan por diferenciarse.
La intensa competencia hace que el espacio se mueva rápidamente. Un avance técnico increíble un día puede convertirse en apuestas en cuestión de meses, ya que los competidores adaptan rápidamente su enfoque. La innovación en arquitecturas y algoritmos no ha dado lugar a una ventaja competitiva defendible. Ninguno de los dos tiene presupuesto ni escala, incluso cuando las grandes tecnológicas y los capitalistas de riesgo invierten miles de millones de dólares en financiación. La única forma en que se puede encontrar una ventaja duradera es a través de más y mejores datos.
Un bucle de retroalimentación positiva para la IA
La investigación que acompaña a las recientes versiones de LLM ha demostrado que incluso los modelos entrenados con miles de millones de palabras de texto de entrenamiento siguen sin estar entrenados. Aumentar el volumen y la calidad de los datos es una forma comprobada de impulsar el rendimiento. Dado que los principales actores ya consumen los datos de entrenamiento públicos más adecuados, el siguiente lugar en el que hay que fijarse será el propio uso de LLM. Los datos que se derivan de la forma en que consultamos y guiamos a los modelos lingüísticos a través de las conversaciones son más que un simple aumento de volumen: pueden ayudar a reforzar lo que los modelos ya hacen bien, y a apuntar y mejorar donde tienen dificultades. OpenAI y Google, que ofrecen sus modelos directamente a los usuarios finales a través de una interfaz de chat, ya han comenzado a construir ese conjunto de datos.
Cuando los datos de uso mejoran la calidad, y la calidad impulsa un mayor uso, el bucle de retroalimentación positiva puede convertir un espacio en un casi monopolio. Hemos visto esta historia antes con los motores de búsqueda. Si bien Google se adelantó por primera vez gracias a un innovador algoritmo de clasificación que utiliza datos públicos, ha logrado mantener y hacer crecer esa ventaja aprendiendo del volumen masivo de datos de uso que se originan en sus usuarios. Esto ha dejado a otros jugadores luchando por capturar incluso una pequeña fracción del mercado. Incluso el CEO de Microsoft, Satya Nadella, testificó el verano pasado que Bing es peor que Google, y que todo está ligado a los datos.