Google ha emitido otra ronda de importantes anuncios de modelos de IA, actualizando sus ofertas de Gemini en todos los ámbitos para llevar a los usuarios y desarrolladores motores de inteligencia artificial que, según la compañía, son más capaces y confiables. En pos de Risamiento de Deepseek y Nuevos modelos OperaiEl ritmo del desarrollo de la IA no se está desacelerando.

Primero, el modelo de flash Gemini 2.0 que apareció en diciembre Para unos pocos seleccionados, ahora se lanza a todos, por lo que lo verá en las aplicaciones Gemini en escritorio y móvil (esto realmente comenzó a aparecer la semana pasada, por lo que es posible que ya lo haya usado). Los modelos Flash están diseñados para ser más rápidos y más ligeros, sin demasiadas compensaciones de rendimiento.

Google también está haciendo un modelo experimental Gemini 2.0 Flash Thinking disponible para que todos los usuarios lo prueben. Es otro modelo de «razonamiento», como los hemos visto en chatgptDonde la IA muestra su pensamiento a medida que avanza, con la intención de producir resultados que son más precisos y más transparentes.

También hay una versión de este modelo que aparece a todos los usuarios con acceso a aplicaciones incluidas: búsqueda de Google, Google Maps y YouTube. Devolverá información en tiempo real de la web, así como referencias a los datos de Google Maps (incluidos los tiempos de viaje y los detalles de la ubicación) e información extraída de los videos de YouTube.

Por último, para los modelos Flash, Google está poniendo a disposición de los desarrolladores Gemini 2.0 Flash-Lite. Es el modelo de Géminis más rentable hasta el momento, que atraerá a esas herramientas de construcción con Gemini, mientras que mantiene altos niveles de rendimiento de procesamiento en una variedad de entradas multimodales (texto, imágenes y más).

Modelos de nivel profesional

Necesitas que Gemini avanzara para llegar a algunos de estos modelos.
Crédito: Lifehacker

A continuación, el modelo experimental Gemini 2.0 Pro aún más capaz está aquí, un poco más lento que los equivalentes de flash, pero mejor para pensar, escribir, codificar y resolver problemas. Este modelo ahora aparece en forma experimental para desarrolladores, y para cualquier usuario que pague $ 20 al mes por Géminis avanzado.

«Tiene el rendimiento de codificación más fuerte y la capacidad de manejar indicaciones complejas, con una mejor comprensión y razonamiento del conocimiento mundial, que cualquier modelo que hayamos lanzado hasta ahora», Dice Google. También puede recoger dos millones de tokens por aviso, que promedia aproximadamente 1,4 millones de palabras, en lo más generoso de la Biblia, dos veces.

Eso es el doble de la capacidad de los modelos Flash 2.0, y Google también proporcionó algunos puntos de referencia. En el punto de referencia general de MMLU-Pro, tenemos puntajes de 71.6 por ciento, 77.6 por ciento y 79.1 por ciento respectivamente para Gemini 2.0 Flash-Lite, 2.0 Flash y 2.0 Pro, en comparación con 67.3 por ciento para 1.5 Flash y 75.8 por ciento para 1.5 Pro.

Hay mejoras similares en todos los ámbitos en otros puntos de referencia de IA, con Gemini 2.0 Pro Experimental alcanzando una puntuación de 91.8 por ciento en una prueba matemática líder. Eso se compara con 90.9 por ciento para 2.0 flash, 86.8 por ciento para flash-lite, 86.5 por ciento para 1.5 Pro y 77.9 por ciento para 1.5 flash.

Como es la norma para los lanzamientos del modelo de IA como este, los detalles son delgados en los datos de capacitación utilizados, Riesgos de alucinación e inexactitudes y demandas de energía, aunque Google dice que los nuevos modelos Flash son los más eficientes hasta el momento, mientras que todos sus últimos modelos son mejores que nunca para razonar la retroalimentación y detener posibles piratas de seguridad y seguridad.



Source link