De acuerdo con la información publicada por DeepSeek, este modelo, entrenado mediante aprendizaje por refuerzo (RL) a gran escala sin necesidad de ajuste fino supervisado (SFT), logra un rendimiento equivalente al de OpenAI-o1 en ámbitos como matemáticas, código y razonamiento. Según las pruebas realizadas por la propia DeepSeek, su modelo R1 supera a otros modelos de código abierto y compite con modelos de carácter propietario.
A partir de ahora, los clientes de Snowflake pueden solicitar acceso en vista previa y probar estas capacidades en la misma plataforma.
Esta versión preliminar se ha lanzado con el fin de proporcionar inferencia sin servidor, tanto en modo interactivo (Python y REST API) como por lotes (función SQL). Para acceder, los usuarios interesados deben contactar con su equipo de ventas, lo que permitirá habilitar el modelo en una cuenta específica.
Desde Snowflake destacan, además, que los datos no se comparten con el proveedor del modelo y que, una vez se habilite la disponibilidad general, los clientes podrán gestionar permisos utilizando el control de acceso basado en roles (RBAC).
Funcionalidades de Snowflake Cortex AI
Snowflake Cortex AI ofrece una serie de capacidades para el uso de modelos de lenguaje grande (LLM por sus siglas en inglés), que incluyen inferencia totalmente gestionada, ajuste fino y recuperación aumentada generativa (RAG). Dichas prestaciones se aplican tanto a datos estructurados como no estructurados, facilitando a los clientes el análisis conjunto de distintas fuentes.
Dicho enfoque posibilita la creación más rápida de aplicaciones de inteligencia artificial, ya que se pueden combinar LLMs de distintas procedencias —tanto abiertas como propietarias— en los flujos de trabajo y las soluciones corporativas.
Al integrar DeepSeek-R1, los usuarios disponen de un modelo que explora la cadena de pensamiento de manera autónoma, gracias al enfoque de aprendizaje por refuerzo implementado por el equipo de DeepSeek.
Los responsables del modelo indican que, en una fase inicial, surgieron desafíos como la repetición infinita, la legibilidad o la mezcla de idiomas, lo que llevó a la incorporación de datos de arranque en frío para robustecer el rendimiento final de su razonamiento.
Cómo aprovechar DeepSeek-R1 en Snowflake
La plataforma de Snowflake proporciona un entorno unificado para la gestión de los datos y la gobernanza, con controles de seguridad aplicables a la inferencia de LLM. Dentro de esta versión preliminar, los clientes pueden activar la función COMPLETE para ejecutar consultas SQL y Python sobre el modelo. De esta manera, es factible procesar lotes de filas o crear aplicaciones basadas en Snowflake Streamlit que aprovechen las posibilidades de DeepSeek-R1.
En aquellos casos en los que los clientes necesiten invocar el modelo desde servicios externos a Snowflake, el método recomendado es la REST API. Con esta interfaz, se facilita la inferencia de baja latencia sin requerir integraciones adicionales, mientras que la opción de Cortex Guard puede filtrar contenido sensible o dañino en las respuestas generadas, reforzando los protocolos de seguridad y protección de la plataforma.
El equipo de investigación de Snowflake prevé optimizar la versión actual de DeepSeek-R1 para disminuir los costes de inferencia e incrementar su eficiencia. Con ello, se busca brindar a los clientes un equilibrio entre rendimiento y rentabilidad, así como allanar el camino para nuevas mejoras en el ámbito de la inteligencia artificial generativa.
En su conjunto, la combinación de DeepSeek-R1 con los servicios de Snowflake Cortex AI puede acelerar el desarrollo de aplicaciones personalizadas, especialmente en sectores que requieren un procesamiento del lenguaje natural y razonamiento profundo de alto nivel.