NVIDIA Workbench AI emerge como una solución integral diseñada para potenciar los esfuerzos de desarrollo en entornos tanto empresariales como particulares, ofreciendo una plataforma versátil y poderosa que impulsa la innovación en inteligencia artificial.
Nvidia no solo lanza dicha herramienta para potenciar la inteligencia artificial privada, siendo esencial contar con herramientas que no solo sean efectivas en términos de rendimiento y capacidad, sino también en cuanto a la protección de la privacidad y el control sobre los datos sensibles de la empresa.
En este sentido, NVIDIA Workbench AI no solo proporciona las herramientas necesarias para desarrollar y desplegar modelos de IA avanzados, sino que también pone en el centro del la estrategia Start Local and Scale Global.
En este artículo, exploraremos en detalle las características Workbench AI, destacando cómo esta plataforma puede ayudar a las empresas a impulsar la innovación, mejorar la eficiencia operativa y proteger la privacidad de los datos mientras aprovechan todo el potencial de la IA para alcanzar sus objetivos empresariales, pudiendo escalar dichas y publicarlas en entornos Git.
La descarga e instalación de Workbench AI es un proceso sencillo y directo, diseñado para que los usuarios puedan comenzar a utilizar la plataforma rápidamente y sin complicaciones excesivas.
Primero se descarga el instalador desde su página web (Tools for AI Workstations | NVIDIA) al acceder al mismo nos cuenta los requisitos necesarios, principalmente el uso de una distribución WSL2.
Tras la instalación de la distribución de WSL2, se puede elegir entre distintos Runtime. En mi caso seleccione Docker
Tras la ejecución se levanta el contenedor necesario bajo el puerto 10000. Si en este paso se encuentra algún fallo compruebe que no tiene otro proceso utilizando dicho puerto. Si es así finalice la tarea y vuelva a abrir Workbench AI.
Workbench AI nos permite ejecutar nuestros proyectos tanto en entornos locales como remotos, lo que permite a los usuarios escalar sus procesos de forma más sencilla.
En el ámbito de los entornos locales, permite a los equipos mantener el control total para poder empezar los proyectos de forma rápida y ágil.
Por otro lado, los entornos remotos permiten una mayor flexibilidad y escalar las cargas de trabajo más fácilmente, teniendo un espacio de trabajo centralizado ya sea en nubes privadas o públicas.
En los entornos de nube privada como los proporcionados por VMware las cargas estarán en el propio datacenter, pudiendo aprovechar sus servidores locales o clústeres de GPU dedicados, garantizando un control completo del ciclo de desarrollo.
Por otro lado, la integración y acceso a cargas de nubes públicas, permite a los usuarios aprovechar la escalabilidad y la flexibilidad de los servicios en la nube para ejecutar cargas de trabajo de IA de manera eficiente, sin tener que preocuparse por la gestión de la infraestructura.
Workbench AI funciona en base a proyectos estos pueden ser nuevos o clonados.
En los entornos nuevos NVIDIA nos ofrece una pequeña variedad de contenedores ya pensados para ejecutar en la herramienta o usar un contenedor personalizado.
NGC Catalog nos ofrece una gran variedad de contenedores, creados y respaldados por NVIDIA, los cuales incluyen frameworks de deep learning, bibliotecas de software, herramientas de optimización y modelos preentrenados, todo ello diseñado para aprovechar al máximo el rendimiento de las GPUs y facilitar su implementación.
Actualmente, todavía existen bastantes opciones que no están disponibles para Workbench AI, pudiendo ser optimizadas en un futuro.
Dentro de un proyecto tenemos distintas posibilidades de administración y gestión.
En el apartado Environment se puede encontrar la información más relevante:
Package: Añadir paquetes a nuestro entorno en este caso de prueba añadi keras-core para poder usar keras en pytorch
Variables de entorno
Secretos
Aplicaciones: Tanto JupyterLab como propias a través de VS Code
Mounts: proporcionan una forma de acceder y mantener archivos fuera del contenedor del proyecto. Cuando un contenedor se detiene, todos los datos no escritos en un montaje se pierden.
Hardware: Número de GPUs y memoria compartida
Nvidia ha propuesto diferentes proyectos diseñados por ellos enseñando la capacidad de la herramienta con desarrollos open-source.
En el primer proyecto NVIDIA proporciona una interfaz a través de Gradio, para poder realizar RAG en realizando llamadas API o de forma Local a Mistral o Llama de forma sencilla y visual, pudiendo añadir nuestros propios documentos y modificando valores como numero de caracteres de respuesta máximo o la temperatura.
NVIDIA Workbench AI es una herramienta prometedora que ofrece una plataforma conveniente para el desarrollo y despliegue de aplicaciones de IA, especialmente con su integración con resto de recursos del proveedor.
Sin embargo, la falta de detalles sin pulir sugiere que hay margen para mejoras en términos de usabilidad y funcionalidad. Además, una mayor compatibilidad con los contenedores del NGC Catalog podría ampliar significativamente su utilidad y conveniencia para los desarrolladores.
En resumen, aunque es una herramienta valiosa, parece que aún tiene camino por recorrer para alcanzar su máximo potencial, teniendo que seguir potenciando proyectos open-source, que generen una gran comunidad entorno al mismo.