Las tecnologías Wolfram están disponibles como una herramienta fundamental para sistemas LLM

Este cuaderno es una traducción al español del artículo de la Comunidad Wolfram “Making Wolfram Tech Available as a Foundation Tool for LLM Systems ” producido con ayuda de un LLM y verificado por un traductor profesional.

Los modelos fundamentales requieren una herramienta fundamental

Los LLM no hacen todo, y tampoco son capaces de hacer todo. Lo que sí hacen es muy impresionante, y útil. Es amplio, y en muchos aspectos es similar a lo humano, pero no es preciso. Y al final no se trata de un cálculo profundo.
¿Entonces, cómo podemos complementar los modelos fundamentales de LLM? Necesitamos una herramienta fundamental: una herramienta que sea amplia y general, y que haga lo que los LLM no hacen: proporcionar cómputo profundo y conocimiento preciso.
¡Y, convenientemente, eso es exactamente lo que he estado construyendo durante los últimos 40 años! Mi objetivo con Wolfram Language siempre ha sido volver computable todo lo que podamos acerca del mundo. Unir de manera coherente y unificada los algoritmos, los métodos y los datos para realizar cálculos precisos siempre que sea posible. Ha sido una tarea enorme, pero creo que es justo decir que ha sido un gran éxito, el cual ha impulsado innumerables descubrimientos e invenciones (incluyendo los míos propios) en una gama extraordinaria de áreas de la ciencia, la tecnología y más allá.
Pero ahora no son solo los humanos quienes pueden aprovechar esta tecnología; también pueden hacerlo las IA, y en particular los LLM. Los modelos fundamentales de LLM son potentes, pero con nuestra herramienta fundamental lo son aún más. Con los avances en los LLM, finalmente tenemos la capacidad de proporcionar a los LLM acceso a las tecnologías Wolfram de manera estándar y general.
Creo que este es un momento importante de convergencia. Mi concepto a lo largo de las décadas ha sido construir tecnología muy amplia y general, la cual ahora encaja perfectamente con la amplitud de los modelos fundamentales de LLM. Los LLM pueden invocar herramientas especializadas y específicas, y eso será útil para muchos propósitos especializados y específicos. Pero lo que Wolfram Language representa de forma única es una herramienta general, con acceso general al gran poder que aportan el conocimiento y la computación precisos.
Pero en realidad hay mucho más. Diseñé Wolfram Language desde cero para que fuera un medio potente no solo para realizar cálculos, sino también para representar y razonar sobre las cosas de forma computacional. Siempre supuse que estaba haciendo esto para humanos, pero ahora resulta que las IA necesitan lo mismo, y que Wolfram Language proporciona el medio perfecto para que las IA “piensen” y “razonen” computacionalmente.
También hay otro punto. En su esfuerzo por volver la mayor cantidad posible de cosas computables, Wolfram Language no solo tiene una inmensa cantidad de elementos en su interior, sino que además proporciona un centro unificado y único para conectarse con otros sistemas y servicios. Esta es parte de la razón por la que ahora es posible lograr una conexión tan eficaz entre los modelos fundamentales de LLM y la herramienta fundamental que es Wolfram Language.

La tecnología para utilizar nuestra herramienta fundamental ya está aquí

El 9 de enero de 2023, apenas unas semanas después de que ChatGPT irrumpiera en la escena, publiqué un artículo titulado “Wolfram|Alpha como la forma de brindar superpoderes de conocimiento computacional a ChatGPT”. Dos meses después lanzamos el primer plugin de Wolfram para ChatGPT (y entre tanto escribí lo que rápidamente se convirtió en un libro bastante popular titulado ¿Qué está haciendo ChatGPT... y por qué funciona?). El plugin fue un comienzo modesto pero acertado. Sin embargo, en ese momento los LLM y su ecosistema realmente no estaban preparados para una historia más grande.
¿En realidad necesitarían los LLM herramientas a final de cuentas? ¿O podrían los LLM, a pesar de los problemas fundamentales que al menos a mí me parecían científicamente bastante claros desde el principio, encontrar de alguna manera una forma mágica de realizar cálculos profundos por sí mismos? ¿O garantizar la obtención de resultados precisos y fiables? E incluso si los LLM fueran a utilizar herramientas, ¿cómo se podría diseñar ese proceso y cuál sería el modelo de implementación para ello?
Ya han pasado tres años y mucho se ha aclarado. Las capacidades principales de los LLM ahora se comprenden mejor (aunque aún hay mucho que no sabemos científicamente sobre ellos). Además, se ha vuelto mucho más evidente que, al menos para las modalidades que actualmente abordan los LLM, la mayor parte del aumento en su valor práctico dependerá de cómo se aprovechen y se conecten. Y esta comprensión resalta más que nunca la gran importancia de proporcionar a los LLM la herramienta fundamental que nuestra tecnología representa.
Y la buena noticia es que ahora existen formas simplificadas de hacer esto, utilizando protocolos y métodos que han surgido en torno a los LLM, y empleando la nueva tecnología que hemos desarrollado. Cuanto más estrecha sea la integración entre los modelos fundamentales y nuestra herramienta fundamental, más poderosa será la combinación. En última instancia, se tratará de alinear el preentrenamiento y la ingeniería central de los LLM con nuestra herramienta fundamental. Sin embargo, un enfoque que es inmediatamente y ampliamente aplicable hoy en día, y para el cual estamos lanzando varios productos nuevos, se basa en lo que llamamos generación aumentada por computación, o CAG.
La idea clave de la CAG es inyectar en tiempo real las capacidades de nuestra herramienta fundamental en el flujo de contenido que generan los LLM. En la generación aumentada por recuperación tradicional, o RAG, se inyecta contenido que ha sido recuperado de documentos existentes. La CAG es como una extensión infinita de la RAG, en la cual se puede generar una cantidad infinita de contenido al instante, utilizando computación, para alimentar a un LLM. Internamente, la CAG es una pieza de tecnología algo compleja que nos ha llevado mucho tiempo desarrollar. Pero en su implementación, es algo que hemos hecho fácil de integrar en sistemas y flujos de trabajo relacionados con los LLM existentes. Y hoy lo estamos lanzando, para que a partir de ahora cualquier sistema LLM, y modelo fundacional LLM, pueda poder acceder a nuestra herramienta fundamental y complementar sus capacidades con el superpoder de la computación y el conocimiento precisos y profundos.

Las cuestiones prácticas

Hoy lanzamos tres métodos principales para acceder a nuestra herramienta fundamental, todos basados en la generación aumentada por computación (CAG) y todos aprovechan nuestro amplio conjunto de tecnología de ingeniería de software.
Todas las imágenes deben ser insertadas en el texto.

MCP Service

Llame inmediatamente a nuestra herramienta fundamental desde cualquier sistema basado en LLM compatible con MCP. La mayoría de los sistemas de consumo basados en LLM ahora son compatibles con MCP, lo que hace que esto sea extremadamente fácil de configurar. Nuestro servicio principal MCP Service es una API web, pero también existe una versión que puede utilizar un Wolfram Engine local.

API de Agent One

Un “agente universal” todo en uno que combina un modelo fundamental de LLM con nuestra herramienta fundamental. Diseñado como un reemplazo directo para las API tradicionales de LLM.

API de componentes CAG

Acceso directo y detallado a las tecnologías Wolfram para sistemas LLM, permitiendo una integración personalizada y optimizada en sistemas LLM en cualquier escala (todas las tecnologías Wolfram están disponibles tanto en formato alojado como local).
El texto inmediatamente abajo va en un cuadro azul:
Listado de capacidades de la herramienta fundamental de Wolfram »
Para obtener más información sobre opciones de acceso e integración, contacte a nuestro Grupo de colaboraciones »