Llama

,

Vous avez vu ? :eyes:

Les models d’IA de facebook ont fuité il y a une semaine ! Le truc, c’est que leur model (appelé llama) et plus performant que gpt-3 avec carrément 13x moins de paramètre.
Leur version à 7 milliards de paramètres fait 13Go et utilise - de 16Gb de Ram.
Du coup… ça peut tourner en local !

En même pas une semaine, des devs ont créé llama.cpp pour faire tourner le modèle en C++
J’ai essayé d’installer tout ça, mais je bloque. Je manque de connaissance en bash et C.

Là, il explique comment faire : How to run Meta's LLaMA on your computer [Windows, Linux tutorial] - AiTuts
Le modèle à 7Gb est à extraire du torrent de +250Gb qui a fuité, avec cette commande :

aria2c --select-file 21-23,25,26 'magnet:?xt=urn:btih:b8287ebfa04f879b048d4d4404108cf3e8014352&dn=LLaMA'

Mais ça ne marche pas. Sinon, il faut télécharger en entier et extraire le modèle à 7Gb.

Aussi, j’ai trouvé dalai qui a une interface web et un docker compose qui permet d’installer tout ça. J’ai testé, mais l’installe plante à cause de python.

Il y a quelqu’un qui connaît et que ça intéresse ? J’aurais besoin d’aide !

1 Like

Oui on en parle ici: https://matrix.to/#/#gptlibre:yuno.librezo.fr

Tu aura probablement plus de réponse là bas :wink:

1 Like