Les chatbots IA perdent de l’argent chaque fois que vous les utilisez. Pourquoi?

Tout sur ChatGPT

Tout sur Google

Tout sur l’Intelligence Artificielle

Tout sur OpenAI

Le coût énorme de l’exécution des grands modèles de langage d’aujourd’hui qui sous-tendent les chatbots comme ChatGPT (OpenAI) et Bard (Google) limite leur qualité et menace d’étrangler le boom mondial de l’IA (intelligence artificielle) qu’ils ont déclenché.

Contents

Pour les plus pressés :

  • Le coût énorme de fonctionnement des chatbots comme ChatGPT et Bard limite leur qualité et menace le boom de l’IA générative (intelligence artificielle) ;
  • Les faiblesses actuelles des chatbots pourraient être résolues si le coût de fonctionnement n’était pas si élevé ;
  • Un seul chat ChatGPT peut coûter jusqu’à mille fois plus qu’une simple recherche sur Google, a estimé un analyste en chef d’une société de recherche sur les semi-conducteurs ;
  • Les publicités arrivent probablement sur les chatbots IA, mais cela ne devrait pas les rendre aussi rentables qu’elles devraient l’être ;
  • “Nous manquons de GPU [componente necessário para chatbots funcionarem]. Ainsi, moins de personnes utilisent nos produits, mieux c’est », a déclaré Sam Altman, PDG d’OpenAI, lors d’un témoignage devant le Sénat américain.

Leur coût et la disponibilité limitée des puces informatiques dont ils ont besoin limitent également les entreprises qui peuvent se les offrir et font pression sur les entreprises, même les plus riches du monde, pour qu’elles transforment les chatbots en générateurs d’argent avant qu’ils ne soient prêts.

En savoir plus:

Les modèles actuellement déployés, aussi impressionnants qu’ils puissent paraître, ne sont pas vraiment les meilleurs modèles disponibles. Par conséquent, les modèles que vous pouvez utiliser présentent de nombreuses faiblesses.

Tom Goldstein, professeur d’informatique à l’Université du Maryland (USA), dans une interview au Washington Post

Ces faiblesses – par exemple : la propension à fournir des résultats biaisés à partir d’invites ou de mensonges – pourraient être évitées si le coût n’était pas un problème.

Les inconvénients des chatbots

(Image : Rokas Tenys/Shutterstock)

Les géants de la technologie pariant leur avenir sur l’IA discutent rarement du coût de la technologie. Même OpenAI, Microsoft et Google ont rejeté la demande de commentaires du journal à ce sujet. Mais les experts disent que c’est l’obstacle le plus critique à la vision des grandes technologies de l’IA générative ouvrant la voie à travers les industries, réduisant les effectifs et augmentant l’efficacité.

L’IA intensive en calculs est la raison pour laquelle OpenAI a retenu son nouveau modèle de langage puissant, GPT-4, de la version gratuite de ChatGPT, qui exécute toujours un modèle GPT-3.5 plus faible.

L’ensemble de données sous-jacent de ChatGPT a été mis à jour pour la dernière fois en septembre 2021, ce qui le rend inutile pour rechercher ou discuter d’événements récents. Et même ceux qui paient 20 $ (environ 100 R $ en conversion directe, aux prix actuels) par mois pour GPT-4 ne peuvent envoyer que 25 messages toutes les trois heures car il est très coûteux à exécuter – et il est beaucoup plus lent à répondre.

(Image : Reproduction/GizChina)

Ces coûts pourraient également être l’une des raisons pour lesquelles Google n’a pas encore intégré de chatbot IA dans son moteur de recherche phare qui répond à des milliards de requêtes chaque jour.

Lorsque Google a lancé son chatbot Bard en mars 2023, il a choisi de ne pas utiliser son plus grand modèle de langage. Dylan Patel, analyste en chef de la société de recherche sur les semi-conducteurs SemiAnalysis, a estimé qu’un seul chat ChatGPT peut coûter jusqu’à mille fois plus qu’une simple recherche sur Google.

Dans un récent rapport sur l’intelligence artificielle, l’administration Biden a identifié les coûts de calcul de l’IA générative comme une préoccupation nationale. La Maison Blanche a écrit que la technologie devrait “augmenter considérablement les demandes de calcul et les impacts environnementaux associés” et qu’il existe un “besoin urgent” de concevoir des systèmes plus durables.

Coûts cachés de l’IA

(Image : Thinkstock)

Plus encore que d’autres formes d’apprentissage automatique, l’IA générative nécessite des quantités vertigineuses de puissance de calcul et des puces informatiques spécialisées appelées GPU que seules les entreprises les plus riches peuvent se permettre.

L’intensification de la bataille pour l’accès à ces puces a contribué à transformer ses principaux fournisseurs en géants de la technologie à part entière, détenant les clés de ce qui est devenu l’atout le plus précieux de l’industrie technologique.

La Silicon Valley en est venue à dominer l’économie d’Internet en partie en offrant des services gratuits comme la recherche en ligne, le courrier électronique et les médias sociaux au monde, perdant de l’argent au départ mais réalisant finalement de gros profits sur la publicité personnalisée.

Pour cette raison, les publicités arrivent probablement sur les chatbots IA. Mais les analystes disent que les publicités seules ne suffiront probablement pas à rendre les outils d’IA rentables de si tôt.

Pendant ce temps, les entreprises proposant des modèles d’IA à l’usage des consommateurs doivent équilibrer leur désir de gagner des parts de marché avec les pertes financières qu’elles accumulent.

façons de profiter

Sam Altman, PDG d’OpenAI, au Sénat américain (Image : Patrick Semansky/AP Photo)

La quête d’une IA plus fiable est également susceptible de générer des bénéfices principalement pour les fabricants de puces et les géants du cloud computing qui contrôlent déjà une grande partie de l’espace numérique, ainsi que les fabricants de puces dont ils ont besoin pour exécuter les modèles.

Ce n’est pas un hasard si les entreprises qui créent les principaux modèles de langage d’IA font partie des plus grands fournisseurs de cloud computing comme Google et Microsoft, ou entretiennent des partenariats étroits avec eux, comme le fait OpenAI avec Microsoft.

Les entreprises qui achètent des outils d’IA à ces entreprises ne réalisent pas qu’elles sont coincées avec un service fortement subventionné qui coûte bien plus qu’elles ne paient actuellement, a déclaré Clem Delangue, PDG de Hugging Face, une société d’IA open source.

Le PDG d’OpenAI, Sam Altman, a indirectement reconnu le problème lors d’une audience au Sénat américain en mai, lorsque le sénateur Jon Ossoff a averti que si OpenAI essayait de rendre ChatGPT addictif d’une manière qui nuit aux enfants, le Congrès “serait très sévère”. Altman a déclaré qu’Ossoff n’avait pas à s’inquiéter :

Nous essayons de concevoir des systèmes qui ne maximisent pas l’engagement. En fait, nous manquons de GPU. Ainsi, moins de personnes utilisent nos produits, mieux c’est.

Sam Altman, PDG d’OpenAI et “père” de ChatGPT, lors d’une audience au Sénat américain

Avec des informations du Washington Post

Avez-vous regardé les nouvelles vidéos sur YouTube d’Olhar Digital ? Abonnez-vous à la chaîne !

Harriette Gareau Harriette

Parmi les domaines d’actualité que je traite, il y a les célébrités, la politique, l’économie, la technologie, la science et bien plus. Ce qui démarque dans mon style rédactionnel, c’est avant tout le ton que j’emploie, mais aussi ma petite moralité que je partage en fin d’article. Pour moi, il est important que mes lecteurs puissent assimiler les informations, tout en y apprenant une leçon. Loin d’imposer ce qui est juste et ce qui ne l’est pas aux lecteurs, mon but est de pouvoir fournir aux lecteurs une lecture hors du commun, qui peut plaire et qui peut les inciter davantage à lire mes écrits. Vous pouvez aussi découvrir d’ailleurs une rubrique dédiée à « tout ce que je pense » des informations liées aux buzz internationaux. Cette rubrique subjective adopte un ton comique et sarcastique à la fois.
Bouton retour en haut de la page