Lattice | Model Overview
La primera familia de modelos de IA profesional entrenada para México y Latinoamérica
Spanish-LATAM tokens procesados durante el entrenamiento
Inferencia hasta 2× más rápida frente a modelos base open-source
Modelos especializados:
Flow, Skoll y Minerva
Despliegue privado: compatible con VPC y entornos on-premise
¿Por qué importa?
Descubre cómo Lattice aporta valor real a tu organización mediante relevancia local, privacidad, eficiencia y escalabilidad.
Contexto cultural
Entiende modismos, referencias legales y datos regionales que otros modelos pasan por alto, para respuestas siempre relevantes.
Privacidad garantizada
Se ejecuta 100% en tu nube o data center, sin exponer datos a APIs externas, asegurando el cumplimiento de GDPR y LFPDPPP.
Eficiencia de costos
Arquitectura Mixture-of-Experts y destilación reducen hasta 50% el consumo de GPU frente a GPT-3.5 en tareas comparables.
Escalabilidad flexible
Desde 7B hasta 42B parámetros efectivos, adaptándose a proyectos pequeños o a despliegues de misión crítica.
Capacidades principales
Lattice combina generación, razonamiento y recuperación para resolver tareas complejas en entornos reales.
Categoría
Descripción
Ejemplos de uso
Generación de contenido
Escribe con fluidez: correos, reportes, campañas, código, contenido técnico o legal.
Redactar oficios, propuestas, RFPs, posts, scripts o documentación interna.
Razonamiento avanzado
Analiza datos, interpreta tablas, conecta ideas, realiza cálculos o diagnósticos complejos.
Auditorías, evaluaciones, proyecciones financieras o revisión de contratos.
Recuperación aumentada (RAG)
Busca dentro de tus documentos, entiende contexto y genera respuestas con citas.
Chatbots internos, soporte a ciudadanos, consultas legales o académicas.
Aprendizaje en contexto
Ajusta tono y estilo según el área o documento sin reentrenar el modelo.
Lenguaje técnico por departamento, manuales internos o respuestas por perfil.
Una familia de modelos, tres formas de potenciar tu IA
Lattice se compone de tres modelos especializados que se adaptan a distintas tareas profesionales. Desde generación de contenido y razonamiento avanzado, hasta recuperación contextual de información: elige el modelo que mejor se ajusta a tu caso de uso.
Flow
- Generativo rápido
- 7B-MoE destilado
- Latencia baja, ideal para generación de contenido y chat.
Skoll
- Razonamiento y análisis
- 13B-MoE destilado
- Maneja cadenas de pensamiento y tablas complejas.
Minerva
- Recuperación avanzada
- 9B-MoE destilado
- Integración RAG nativa para bases documentales.
Cómo lo entrenamos
1
Base abierta confiable
DeepSeek V3/R1 (permite inspección y ajuste).
2
Fine-tuning regional
9,000M tokens curados: prensa, DOF, tesis, data sectorial.
3
Destilación multi-objetivo
Menos parámetros, mayor eficiencia, mismo nivel de comprensión y desempeño.
4
Evaluación continua
Los desafíos de crear un modelo propio desde la página en blanco
¿Por qué no empezamos de cero?
-
Costos computacionales extremos
Entrenar un modelo de gran tamaño exige miles de GPUs A100 / H100 durante varias semanas, lo que eleva la inversión inicial por encima de los USD 10 millones solo en infraestructura y energía.
-
Restricciones regulatorias de EE. UU.
Las sanciones y controles de exportación sobre hardware avanzado (EE. UU. CHIPS Act) limitan el acceso a los aceleradores más potentes desde Latinoamérica, retrasando proyectos locales y encareciendo aún más los insumos.
-
Brecha de infraestructura local
Los centros de datos en la región aún no ofrecen capacidad suficiente ni tarifas competitivas para entrenamiento a gran escala, obligando a recurrir a nubes extranjeras y desplazando los datos fuera de jurisdicción.
Nuestro enfoque pragmático
Aprovechamos arquitecturas abiertas comprobadas y las adaptamos con fine-tuning y destilación a la realidad latinoamericana. Así logramos un modelo de frontera, eficiente y soberano sin incurrir en costos prohibitivos ni depender de hardware restringido.
Más que una adaptación: una evolución
Lattice no es solo un modelo ajustado para Latinoamérica; es la base de una nueva generación de IA soberana que evoluciona más allá de su origen abierto.
-
Arquitectura ampliada y eficiente
Investigamos nuevos esquemas neuronales y técnicas Mixture-of-Experts para reducir costos de cómputo sin sacrificar rendimiento.
-
Datasets 100 % LATAM
Construimos y curamos conjuntos de datos propios —prensa, normativas, estudios académicos y expresiones culturales— para reflejar con precisión nuestro contexto lingüístico, económico y social.
-
Despliegue local optimizado
Destilamos versiones compactas que corren en VPC o servidores on-premise, eliminando la necesidad de supercomputadoras y manteniendo la soberanía de datos.
-
Razonamiento y adaptabilidad avanzados
Incorporamos técnicas de aprendizaje continuo que permiten a Lattice resolver tareas complejas y adaptarse dinámicamente a los matices de cada país de la región.
Con esta estrategia, Lattice pasa de ser un modelo derivado a convertirse en una IA de frontera, diseñada y mejorada continuamente para las necesidades reales de México y Latinoamérica.