LLama 3 como Copilot en Visual Studio Code
Si eres desarrollador y te encanta Github Copilot pero no puedes pagar o no te gustan sus políticas de Github, hay otra forma de poder tener tu propio asistente inteligente, usando un modelo abierto llamado LLama, Creado por Facebook, y un plugin llamado Code GPT, así que en este tutorial te voy a enseñar cómo puedes configurar Ollama junto a Visual Studio Code para tener una experiencia similar gracias a estos programas.
Ollama es una herramienta de código abierto basada en GPT que puede ayudarte a generar código, proporcionar sugerencias y mucho más. Configurarlo junto a Visual Studio Code te permitirá tener un entorno de desarrollo integrado con funcionalidades avanzadas de asistencia.
¡Así que sigue leyendo para descubrir cómo configurar Ollama y maximizar tu productividad como desarrollador!
¿Qué es CodeGPT?
CodeGPT es una variante de GPT (Generative Pre-trained Transformer) que ha sido específicamente entrenada en código fuente y textos relacionados con programación. Utiliza la misma arquitectura básica de GPT, pero se ha adaptado su entrenamiento para que tenga un mejor entendimiento del lenguaje y las convenciones comunes en la programación. Esto le permite generar código fuente, completar fragmentos de código, proporcionar sugerencias sobre errores, y realizar otras tareas relacionadas con la programación. Es una herramienta útil para desarrolladores y programadores, ya que puede ayudar en la escritura de código y la resolución de problemas.
Una de las diferencias de CodeGPT con Github Copilot, es que este permite seleccionar distintos proveedores AI, asi que en nuestro caso usaremos Llama 3.
La version que les enseñare en este tutorial sera la version LLama 3 desde Visual Studio Code.
Instalación de CodeGPT
Primero vamos a instalar la extension de CodeGPT en VScode, lo pueden descargar desde este enlace:
Luego vamos a instalar Ollama:
Por defecto cuando instalas Ollama trae algunos modelos, pero en nuestro caso queremos llama3 con su modelo 8 Billions, asi que vamos a descargarlo usando el comando:
ollama pull llama3:8b
Reinicia tu editor de visual studio code y luego ve en la extension Code GPT que veras entre tus iconos en la barra lateral de VSCode y dentro de esta seccion en la parte superior veras una sección para escoger entre muchos providers, escoge Ollama3:8b y listo ahora estaras usando tu propia maquina para ejecutar un modelo inteligente y solo que puedes usar al igual que Github Copilot.
Caracteristicas
- Chat, tienes un chat al mismo estilo que github copilot.
- Opciones en un menu contextual, es decir cuando das click derecho veras opciones como:
- CodeGPT: Explain CodeGPT
- CodeGPT: Refactor CodeGPT
- CodeGPT: Document CodeGPT
- CodeGPT: Find Problems CodeGPT
- CodeGPT: Unit Test