Sidebar Ad

Google presenta el modelo de IA Gemini 1.5: estas son sus mejoras

Google ha dado un paso significativo en el campo de la inteligencia artificial con el lanzamiento de Gemini 1.5, marcando el inicio de una nueva era con mejoras notables en velocidad, rendimiento, y capacidades cognitivas.

La innovación principal de Gemini 1.5 reside en su arquitectura Mixture-of-Experts (MoE), diseñada para dividir el modelo en múltiples redes neuronales especializadas que se activan selectivamente según el tipo de información procesada.

Esta estrategia no solo acelera el aprendizaje de tareas complejas sin sacrificar la calidad, sino que también optimiza la eficiencia del entrenamiento, ofreciendo una combinación potente de velocidad y precisión en el procesamiento de datos.

La introducción de Gemini 1.5 Pro, la versión intermedia del modelo, establece un nuevo estándar en el procesamiento de inteligencia artificial. Optimizado para manejar una diversidad de tareas con eficacia, este modelo se posiciona a la altura de Gemini 1.0 Ultra en términos de capacidad, pero con la ventaja adicional de poder comprender contextos extensos.

Según se detalla en el blog oficial de Google, Gemini 1.5 Pro es capaz de manejar una ventana de contexto estándar de 128.000 tokens, con la posibilidad de extenderse hasta un millón de tokens para un grupo selecto de desarrolladores y clientes empresariales a través de AI Studio y Vertex AI.

Esta capacidad expansiva permite al modelo procesar enormes volúmenes de información de manera eficiente, incluyendo hasta una hora de vídeo, once horas de audio, bases de código de más de 30.000 líneas, o documentos que superen las 700.000 palabras.

Este avance es crucial, ya que permite a Gemini 1.5 Pro analizar, clasificar y resumir grandes cantidades de contenido de forma precisa, mejorando la comprensión y el razonamiento en tareas más complejas y extensas.

Google destaca que, con este desarrollo, el modelo no solo mejora en términos de compresión de datos y velocidad, sino que también enriquece la experiencia del usuario al reducir los requisitos computacionales antes de su implementación generalizada.