cedric.org Posté 28 juin 2023 Signaler Posté 28 juin 2023 On 6/26/2023 at 1:25 PM, cedric.org said: 100 millions pour tout développer et maintenir et opérer. Pour un modèle un poil plus petit, les H100 permettent d'entraîner un modèle équivalent à chatGPT 3 pour 50k€, de ce que je lisais. C'est tout frais : https://blogs.nvidia.com/blog/2023/06/27/generative-ai-debut-mlperf/ Quote In a new industry-standard benchmark, a cluster of 3,584 H100 GPUs at cloud service provider CoreWeave completed a massive GPT-3-based benchmark in just 11 minutes. À l'achat ça fait 40000€ * 3,584 (sans compter toute l'infra) = 143 360 000, avec l'infra probablement 200 millions. Cependant en cloud, ça fait 5 euros de l'heure le H100 payé à la minute, donc ça fait 3300 euros, avec l'infra qui va avec ça doit faire 5000 euros. C'est absolument démentiel.
Prouic Posté 25 mars 2024 Signaler Posté 25 mars 2024 https://arxiv.org/pdf/2402.11753.pdf Comment hack la sécu de l'IA avec du ASCII art ...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant