
Lattice Séeb Legal
Corpus
Casos de uso
- Revisión contractual
- Monitoreo del DOF
- Análisis de jurisprudencia
- Due diligence documental
Small Language Models destilados desde Lattice Na'at y entrenados con corpus curado por sector. Precisión industrial, despliegue on-premise, costo de operación bajo control.
6
Verticales especializadas
4B–9B
Parámetros por modelo
<300ms
Tiempo de respuesta
94%+
Precisión sectorial
Basado en "Small Language Models are the Future of Agentic AI" — Belcak et al., NVIDIA (2025)
Benchmark 2025
En tareas agénticas de dominio específico, los SLMs superan en precisión y consistencia a modelos genéricos masivos. Lo demuestra el estudio de NVIDIA "Small Language Models are the Future of Agentic AI" (Belcak et al., 2025).
10–30×
menos energía
Requieren de 10× a 30× menos energía y hardware que un modelo frontera. Operan en local con respuestas instantáneas, sin dependencia de Wi-Fi ni costos por consumo de datos.
Cero
costos por token
Acceso vía API pagando por token, o licencia para despliegue en VPC / On-premise. Al licenciar el modelo, eliminas el costo por token y garantizas que tus datos nunca salgan de tu infraestructura.
Cada Lattice Séeb conoce las regulaciones, la terminología y los procesos de su industria.

Corpus
Casos de uso

Corpus
Casos de uso

Corpus
Casos de uso

Corpus
Casos de uso

Corpus
Casos de uso

Corpus
Casos de uso
Lattice Na'at es el modelo base. A través de destilación supervisada con corpus curado, generamos Séeb: modelos expertos por industria optimizados para IA agéntica.
Modelo fundacional
El modelo base de frontera desarrollado en LATAM. Conocimiento general, razonamiento complejo y comprensión de lenguaje especializado.
Corpus curado por industria
Expertos de dominio curan, limpian y validan el corpus normativo. Se transfiere el conocimiento de Na'at a un modelo compacto especializado.
4B–9B parámetros
Modelo experto por industria optimizado para IA agéntica: alta velocidad, bajo cómputo y despliegue on-premise.
Séeb significa "rápido" o "veloz" en lengua maya (pronunciado se'eb). Elegimos este nombre porque estos modelos pequeños (SLMs de 4B y 9B parámetros) están diseñados específicamente para operar con baja latencia y alta velocidad, haciéndolos ideales para arquitecturas de IA agéntica donde se requieren decenas de llamadas por minuto.
Sí. El proceso de destilación de Lattice Séeb puede adaptarse a cualquier vertical con corpus normativo disponible. Trabajamos contigo para curar y validar el dataset específico de tu industria. Contáctanos para iniciar un diagnóstico.
Es el corpus de entrenamiento seleccionado, limpiado y validado manualmente por expertos en la materia. Incluye normativas vigentes, jurisprudencias, protocolos y documentación sectorial. La calidad del dataset determina la precisión del modelo.
Sí. Ofrecemos acceso vía API con cobro por token, pero Lattice Séeb está optimizado para ejecutarse en tu infraestructura (VPC u On-premise). Al pagar la licencia del modelo para uso local, eliminas los costos por token y tus datos nunca salen de tu entorno.
Lattice Séeb está entrenado con corpus normativo de México y LATAM, opera on-premise y está optimizado para tareas industriales específicas. Un LLM genérico no conoce el DOF, la SCJN ni las disposiciones CRE con la profundidad de Séeb.
Identifica qué modelo de Lattice Séeb es el adecuado para tus procesos y recibe una propuesta de implementación con ROI estimado.