Willison señala que, si bien citar fuentes ayuda a verificar la precisión, construir un sistema que lo haga bien «puede ser bastante complicado», pero Citations parece ser un paso en la dirección correcta al incorporar la capacidad RAG directamente en el modelo.
Aparentemente, esa capacidad no es algo nuevo. Alex Albert de Anthropic escribió en X, «Bajo el capó, Claude está capacitado para citar fuentes. Con Citas, estamos exponiendo esta capacidad a los desarrolladores. Para usar Citas, los usuarios pueden pasar un nuevo parámetro «citations: {enabled:true}» en cualquier tipo de documento que deseen. enviar a través de la API.»
Los primeros usuarios informan resultados prometedores
La compañía lanzó Citations para los modelos Claude 3.5 Sonnet y Claude 3.5 Haiku a través de Anthropic API y la plataforma Vertex AI de Google Cloud, pero aparentemente ya se está utilizando en el campo.
Anthropic dice que Thomson Reuters, que utiliza Claude para impulsar su Co-abogado plataforma legal de referencia de IA, espera utilizar Citations de una manera que ayude a «minimizar el riesgo de alucinaciones pero también fortalezca la confianza en el contenido generado por IA».
Además, la empresa de tecnología financiera Endex le dijo a Anthropic que Citations redujo sus confabulaciones de fuentes del 10 por ciento a cero y aumentó las referencias por respuesta en un 20 por ciento, según el director ejecutivo Tarun Amasa.
A pesar de estas afirmaciones, confiar en cualquier LLM para transmitir con precisión información de referencia es sigue siendo un riesgo hasta que la tecnología sea más estudiada y probada en el campo.
Anthropic cobrará a los usuarios su precio estándar basado en tokens, aunque el texto citado en las respuestas no contará para los costos de los tokens de salida. Obtener un documento de 100 páginas como referencia costaría aproximadamente $0,30 con Claude 3.5 Sonnet o $0,08 con Claude 3.5 Haiku, según el precio API estándar de Anthropic.