👨🏻‍💻 Nuestros modelos Lattice estarán disponibles en Diciembre 2025.

Lattice | Model Overview

La primera familia de modelos de IA profesional entrenada para México y Latinoamérica

Lattice es una serie de modelos de uso profesional basados en arquitecturas MoE (Mixture-of-Experts) y entrenados con un riguroso proceso de fine-tuning sobre versiones abiertas de DeepSeek V3 y R1.

Compatible con AWS, Azure y Google Cloud.

9000

Spanish-LATAM tokens procesados durante el entrenamiento

2

Inferencia hasta 2× más rápida frente a modelos base open-source

3

Modelos especializados:
Flow, Skoll y Minerva

100

Despliegue privado: compatible con VPC y entornos on-premise

¿Por qué importa?

Descubre cómo Lattice aporta valor real a tu organización mediante relevancia local, privacidad, eficiencia y escalabilidad.

Contexto cultural

Entiende modismos, referencias legales y datos regionales que otros modelos pasan por alto, para respuestas siempre relevantes.

Privacidad garantizada

Se ejecuta 100% en tu nube o data center, sin exponer datos a APIs externas, asegurando el cumplimiento de GDPR y LFPDPPP.

Eficiencia de costos

Arquitectura Mixture-of-Experts y destilación reducen hasta 50% el consumo de GPU frente a GPT-3.5 en tareas comparables.

Escalabilidad flexible

Desde 7B hasta 42B parámetros efectivos, adaptándose a proyectos pequeños o a despliegues de misión crítica.

Capacidades principales

Lattice combina generación, razonamiento y recuperación para resolver tareas complejas en entornos reales.

Categoría
Descripción
Ejemplos de uso
Generación de contenido
Escribe con fluidez: correos, reportes, campañas, código, contenido técnico o legal.
Redactar oficios, propuestas, RFPs, posts, scripts o documentación interna.
Razonamiento avanzado
Analiza datos, interpreta tablas, conecta ideas, realiza cálculos o diagnósticos complejos.
Auditorías, evaluaciones, proyecciones financieras o revisión de contratos.
Recuperación aumentada (RAG)
Busca dentro de tus documentos, entiende contexto y genera respuestas con citas.
Chatbots internos, soporte a ciudadanos, consultas legales o académicas.
Aprendizaje en contexto
Ajusta tono y estilo según el área o documento sin reentrenar el modelo.
Lenguaje técnico por departamento, manuales internos o respuestas por perfil.

Una familia de modelos, tres formas de potenciar tu IA

Lattice se compone de tres modelos especializados que se adaptan a distintas tareas profesionales. Desde generación de contenido y razonamiento avanzado, hasta recuperación contextual de información: elige el modelo que mejor se ajusta a tu caso de uso.

Flow

Skoll

Minerva

Cómo lo entrenamos

1

Base abierta confiable

DeepSeek V3/R1 (permite inspección y ajuste).

2

Fine-tuning regional

9,000M tokens curados: prensa, DOF, tesis, data sectorial.

3

Destilación multi-objetivo

Menos parámetros, mayor eficiencia, mismo nivel de comprensión y desempeño.

4

Evaluación continua

Benchmarks internos (Spanish HELM, MMLU-LatAm) y validación humana.
Los desafíos de crear un modelo propio desde la página en blanco

¿Por qué no empezamos de cero?

  • Costos computacionales extremos

    Entrenar un modelo de gran tamaño exige miles de GPUs A100 / H100 durante varias semanas, lo que eleva la inversión inicial por encima de los USD 10 millones solo en infraestructura y energía.

  • Restricciones regulatorias de EE. UU.

    Las sanciones y controles de exportación sobre hardware avanzado (EE. UU. CHIPS Act) limitan el acceso a los aceleradores más potentes desde Latinoamérica, retrasando proyectos locales y encareciendo aún más los insumos.

  • Brecha de infraestructura local

    Los centros de datos en la región aún no ofrecen capacidad suficiente ni tarifas competitivas para entrenamiento a gran escala, obligando a recurrir a nubes extranjeras y desplazando los datos fuera de jurisdicción.

Nuestro enfoque pragmático

Aprovechamos arquitecturas abiertas comprobadas y las adaptamos con fine-tuning y destilación a la realidad latinoamericana. Así logramos un modelo de frontera, eficiente y soberano sin incurrir en costos prohibitivos ni depender de hardware restringido.

Más que una adaptación: una evolución

Lattice no es solo un modelo ajustado para Latinoamérica; es la base de una nueva generación de IA soberana que evoluciona más allá de su origen abierto.

  • Arquitectura ampliada y eficiente

    Investigamos nuevos esquemas neuronales y técnicas Mixture-of-Experts para reducir costos de cómputo sin sacrificar rendimiento.

  • Datasets 100 % LATAM

    Construimos y curamos conjuntos de datos propios —prensa, normativas, estudios académicos y expresiones culturales— para reflejar con precisión nuestro contexto lingüístico, económico y social.

  • Despliegue local optimizado

    Destilamos versiones compactas que corren en VPC o servidores on-premise, eliminando la necesidad de supercomputadoras y manteniendo la soberanía de datos.

  • Razonamiento y adaptabilidad avanzados

    Incorporamos técnicas de aprendizaje continuo que permiten a Lattice resolver tareas complejas y adaptarse dinámicamente a los matices de cada país de la región.

Con esta estrategia, Lattice pasa de ser un modelo derivado a convertirse en una IA de frontera, diseñada y mejorada continuamente para las necesidades reales de México y Latinoamérica.