Meta ha revelado su mรกs reciente innovaciรณn, Code Llama, una inteligencia artificial diseรฑada para redactar y mejorar cรณdigo de programaciรณn. Aunque existen otros bots con IA, como ChatGPT y Bard, que pueden escribir cรณdigo, Code Llama se destaca por sus caracterรญsticas diseรฑadas especรญficamente para facilitar el trabajo de los programadores.
Esta herramienta de inteligencia artificial de Meta no solo interpreta instrucciones dadas en lenguaje natural, sino que tambiรฉn trabaja con segmentos de cรณdigo existentes. Su fundamento se basa en Llama 2, un avanzado modelo de lenguaje que la firma presentรณ hace algunos meses. Notablemente, Code Llama es versรกtil, siendo compatible con lenguajes de programaciรณn ampliamente utilizados, como Python, Javascript, PHP, C++, C# y Bash.
Una de las ventajas de usar Code Llama es su capacidad para completar secciones de cรณdigo, identificar fallos y sugerir correcciones. De forma impresionante, tambiรฉn puede proporcionar descripciones claras y comprensibles de fragmentos de cรณdigo.
Modelos adaptados a distintas necesidades
El equipo detrรกs de Code Llama ha desarrollado tres variantes del software. El modelo principal se centra en la creaciรณn de cรณdigo. Por otro lado, Code Llama-Python se ha optimizado especรญficamente para el lenguaje Python. Ademรกs, hay un modelo llamado Code Llama-Instruct, diseรฑado para interpretar instrucciones dadas en lenguaje cotidiano.
Es importante destacar que desde Meta aconsejan no utilizar Code Llama o Code Llama-Python cuando las entradas son instrucciones en lenguaje natural. Estos modelos estรกn diseรฑados principalmente para trabajar con cรณdigo. En cambio, Code Llama-Instruct ha sido desarrollado para ยซcaptar con precisiรณn las expectativas de los usuarios a partir de sus instruccionesยป.
En funciรณn de las necesidades de la tarea, Code Llama se ofrece en tres tamaรฑos distintos: uno con 7.000 millones de parรกmetros, otro con 13.000 millones y el mรกs robusto con 34.000 millones.
Todos estos modelos se entrenaron utilizando 500.000 millones de tokens relacionados con programaciรณn. La principal diferencia entre ellos es la velocidad de respuesta y la profundidad de los resultados. Por ejemplo, la versiรณn de 7.000 millones de parรกmetros es ideal para tareas rรกpidas como completar lรญneas de cรณdigo en mรกquinas con una GPU. Mientras que la de 34.000 millones de parรกmetros es mรกs detallada y precisa, aunque no estรก destinada para trabajos en tiempo real.