1. BigQuery permite el análisis de datos utilizando modelos de lenguaje grandes como Gemini 1.0 Pro, Pro Vision y text-bison.
2. El ajuste del modelo en BigQuery es necesario para escenarios donde se requiere personalización adicional, como definir comportamiento o actualizar con nueva información.
3. El ajuste fino supervisado en BigQuery utiliza un conjunto de datos con texto de entrada y texto de salida ideal para imitar el comportamiento implícito en los ejemplos, lo que conduce a un mejor rendimiento del modelo.
BigQuery ofrece la capacidad de analizar datos mediante modelos de lenguaje grandes (LLM), como Gemini 1.0 Pro, Gemini 1.0 Pro Vision y text-bison alojado en Vertex AI. Estos modelos son eficaces para tareas como resumen de texto y análisis de sentimientos con ingeniería rápida. Sin embargo, en algunos casos, puede ser necesaria la personalización mediante el ajuste del modelo para definir comportamientos específicos, estilos de respuesta o incorporar nueva información.
La nueva característica anunciada es un ajuste fino supervisado en BigQuery, que permite la personalización de LLM mediante el uso de un conjunto de datos con texto de entrada (solicitud) y texto de salida esperado (etiqueta) para entrenar el modelo. Este enfoque ayuda al modelo a imitar los comportamientos o tareas deseados basándose en los ejemplos proporcionados.
Para demostrar el ajuste del modelo, se utiliza como ejemplo un problema de clasificación que utiliza un conjunto de datos de transcripción médica. Al crear tablas de capacitación y evaluación en BigQuery y utilizar la función ML.GENERATE_TEXT, el rendimiento del modelo se puede evaluar en función de qué tan bien clasifica las transcripciones en categorías predefinidas.
El ajuste de modelos en BigQuery implica la creación de un modelo ajustado especificando datos de entrenamiento con columnas de mensajes y etiquetas. La técnica utilizada es la Adaptación de bajo rango (LoRA), un método eficiente en parámetros que mejora el rendimiento del modelo. El proceso implica crear y evaluar un punto final remoto diferente para el modelo ajustado en comparación con el modelo de referencia.
Las métricas de evaluación del modelo ajustado muestran un rendimiento mejorado en comparación con el modelo de referencia. Se analizan las puntuaciones F1 para varias categorías, lo que indica una mejora general en la precisión de la clasificación del modelo. Luego, el modelo ajustado está listo para la inferencia utilizando la función ML.GENERATE_TEXT, lo que ofrece resultados mejorados sin la necesidad de administrar infraestructura adicional. Más detalles y soporte para ajustar diferentes modelos están disponibles a través de la documentación proporcionada.