PDG de Tether : Les modèles efficaces réduisent les coûts de formation, l'inférence locale et en périphérie deviennent des tendances
Le 27 janvier, le PDG de Tether, Paolo Ardoino, a tweeté que l'entraînement de modèles puissants ne nécessitera plus des millions de GPU à l'avenir. Cette méthode reposant uniquement sur la force brute de calcul est à la fois inefficace et peu élégante. De meilleurs modèles réduiront considérablement les coûts d'entraînement, tandis que l'acquisition de données restera essentielle. L'inférence se déplacera vers des appareils locaux ou en périphérie, évitant ainsi de gaspiller des centaines de milliards de dollars uniquement en puissance de calcul.
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
SOL Global s'engage fermement à un financement privé de 10 millions de dollars canadiens
Sahara annonce que DeepSeek-R1 deviendra le modèle phare de son AI Studio