Vous avez vu ?
Les models d’IA de facebook ont fuité il y a une semaine ! Le truc, c’est que leur model (appelé llama) et plus performant que gpt-3 avec carrément 13x moins de paramètre.
Leur version à 7 milliards de paramètres fait 13Go et utilise - de 16Gb de Ram.
Du coup… ça peut tourner en local !
En même pas une semaine, des devs ont créé llama.cpp pour faire tourner le modèle en C++
J’ai essayé d’installer tout ça, mais je bloque. Je manque de connaissance en bash et C.
Là, il explique comment faire : How to run Meta's LLaMA on your computer [Windows, Linux tutorial] - AiTuts
Le modèle à 7Gb est à extraire du torrent de +250Gb qui a fuité, avec cette commande :
aria2c --select-file 21-23,25,26 'magnet:?xt=urn:btih:b8287ebfa04f879b048d4d4404108cf3e8014352&dn=LLaMA'
Mais ça ne marche pas. Sinon, il faut télécharger en entier et extraire le modèle à 7Gb.
Aussi, j’ai trouvé dalai
qui a une interface web et un docker compose qui permet d’installer tout ça. J’ai testé, mais l’installe plante à cause de python.
Il y a quelqu’un qui connaît et que ça intéresse ? J’aurais besoin d’aide !