Snowflake, la empresa del Data Cloud, y Mistral AI, uno de los principales proveedores europeos de soluciones de IA, ha anunciado un acuerdo global para llevar los modelos lingüísticos más potentes de Mistral AI directamente a los clientes de Snowflake en el Data Cloud. A través de esta alianza, que se extiende a varios años y que incluye una inversión paralela en la Serie A de Mistral por parte de Snowflake Ventures, Mistral AI y Snowflake ofrecerán las capacidades que las empresas necesitan para aprovechar sin problemas la potencia de los principales large language models (LLM), al mismo tiempo que mantienen la seguridad, la privacidad y la gobernanza sobre su activo más valioso: sus datos.
Gracias a la nueva colaboración con Mistral AI, los clientes de Snowflake tienen acceso a Mistral Large, el LLM más nuevo y potente de Mistral AI, con resultados en las pruebas de referencia que lo convierten en uno de los modelos de mayor rendimiento en el mundo. Más allá de los resultados de las pruebas de referencia, el nuevo modelo insignia de Mistral AI tiene capacidades de razonamiento únicas, domina el código y las matemáticas, y habla con fluidez cinco idiomas -francés, inglés, alemán, español e italiano-, en sintonía con el compromiso de Mistral AI de promover las particularidades culturales y lingüísticas de la tecnología de IA generativa.
También puede procesar cientos de páginas de documentos en una sola petición. Además, los clientes de Snowflake tienen acceso a Mixtral 8x7B, el modelo de código abierto de Mistral AI que supera a GPT3.5 de OpenAI [5] en velocidad y calidad en la mayoría de las pruebas comparativas, junto con Mistral 7B, el primer modelo fundacional de Mistral AI optimizado para una baja latencia con un bajo requisito de memoria y un alto rendimiento para su tamaño. Los modelos de Mistral AI ya están disponibles para los clientes en _public preview _como parte de Snowflake Cortex, el servicio de búsqueda vectorial y LLM totalmente gestionado de Snowflake que permite a las organizaciones acelerar el análisis y crear con rapidez aplicaciones de IA de forma segura con sus datos empresariales.
«Al aliarnos con Mistral AI, desde Snowflake estamos poniendo uno de los LLM más potentes del mercado en manos de nuestros clientes, permitiendo a cada usuario construir aplicaciones de vanguardia impulsadas por IA de una manera simple y a escala», señala Sridhar Ramaswamy, CEO de Snowflake. «Con Snowflake como pilar para tener datos confiables, estamos transformando la forma en que las empresas aprovechan el poder de los LLM a través de Snowflake Cortex para que puedan abordar de forma rentable nuevos casos de uso de IA dentro de los límites de seguridad y privacidad del Data Cloud», añade.
«El compromiso de Snowflake con la seguridad, la privacidad y la gobernanza se alinea con la ambición de Mistral AI de poner la IA de vanguardia en manos de todos y que sea accesible en todas partes. Mistral AI comparte los valores de Snowflake para desarrollar modelos de A eficientes, útiles y fiables que impulsen la forma en que las organizaciones de todo el mundo aprovechan la IA generativa», indica Arthur Mensch, CEO y cofundador de Mistral AI. «Con nuestros modelos disponibles en Snowflake Data Cloud, somos capaces de democratizar aún más la IA para que los usuarios puedan crear aplicaciones de IA más sofisticadas que impulsen el valor a escala global», precisa.
En Snowday 2023, Snowflake Cortex anunció por primera vez la compatibilidad con los principales LLM del sector en tareas especializadas como análisis de sentimientos, traducción y resumen, junto con LLM fundacionales – empezando por el modelo Llama 2 de Meta AI- para casos de uso como la retrieval-augmented generation (RAG). Snowflake sigue invirtiendo en sus esfuerzos de IA generativa mediante la alianza con Mistral AI y el avance del conjunto de LLM fundacionales en Snowflake Cortex, proporcionando a las organizaciones un camino fácil para llevar la IA generativa de vanguardia a cada parte de su negocio. Para ofrecer una experiencia sin servidores que ponga la IA al alcance de un amplio conjunto de usuarios, Snowflake Cortex elimina los largos ciclos de adquisición y la compleja gestión de la infraestructura de GPU al asociarse con NVIDIA para ofrecer una plataforma de computación acelerada en todo el stack que aprovecha NVIDIA Triton Inference Server entre otras herramientas.
Con Snowflake Cortex LLM Functions en public preview, los usuarios de Snowflake pueden aprovechar la IA con sus datos empresariales para dar soporte a una amplia gama de casos de uso. Mediante el uso de funciones especializadas, cualquier usuario con conocimientos de SQL puede aprovechar LLM más pequeños para abordar de forma rentable tareas específicas como análisis de sentimientos, traducción y resumen en cuestión de segundos. Para casos de uso más complejos, los desarrolladores de Python pueden pasar en cuestión de minutos del concepto a aplicaciones de IA en todo el stack, como chatbots, combinando la potencia de los LLM fundacionales – incluidos los LLM de Mistral AI en Snowflake Cortex- con chat elements, en public preview próximamente, dentro de Streamlit en Snowflake. Esta experiencia simplificada también es válida para RAG con las funciones vectoriales integradas y los tipos de datos vectoriales de Snowflake, ambos en public preview próximamente, al mismo tiempo que se garantiza que los datos nunca abandonan el perímetro de seguridad y gobernanza de Snowflake.
Snowflake se compromete a impulsar la innovación en IA no solo para sus clientes y el ecosistema de Data Cloud, sino para la comunidad tecnológica en general. Por ello, Snowflake se ha unido recientemente a la AI Alliance, una comunidad internacional de desarrolladores, investigadores y organizaciones dedicadas a promover una IA abierta, segura y responsable. A través de la AI Alliance, Snowflake continuará abordando de forma integral y abierta tanto los retos como las oportunidades de la IA generativa con el fin de democratizar aún más sus beneficios.
Empresas>Las empresas hablan