{"id":22714,"date":"2023-06-21T12:46:21","date_gmt":"2023-06-21T10:46:21","guid":{"rendered":"https:\/\/www.etfworld.com\/fr\/?p=22714"},"modified":"2023-06-22T12:41:08","modified_gmt":"2023-06-22T10:41:08","slug":"wisdomtree-les-ia-vont-elles-consumer-toute-lenergie-du-monde","status":"publish","type":"post","link":"https:\/\/www.etfworld.com\/fr\/wisdomtree-les-ia-vont-elles-consumer-toute-lenergie-du-monde\/","title":{"rendered":"WisdomTree : Les IA vont-elles consumer toute l\u2019\u00e9nergie du monde ?"},"content":{"rendered":"<p style=\"text-align: justify;\"><strong>WisdomTree<\/strong> : Sur des questions aussi importantes, rien ne demeure constant.<!--more--><\/p>\n<p style=\"text-align: justify;\"><a href=\"https:\/\/www.etfworld.com\/fr\/newsletter\">Inscrivez-vous pour recevoir les Newsletters gratuites de ETFWorld.fr<\/a><\/p>\n<hr \/>\n<p style=\"text-align: justify;\"><strong>Par Chris Gannatti, Global Head of Research, WisdomTree<\/strong><\/p>\n<hr \/>\n<p style=\"text-align: justify;\"><strong>Quand on consid\u00e8re une nouvelle technologie :<\/strong><\/p>\n<ul style=\"text-align: justify;\">\n<li>On ne peut pr\u00e9supposer que les taux d\u2019adoption ou d\u2019utilisation vont demeurer constants : ils peuvent baisser, ils peuvent aussi augmenter.<\/li>\n<li>On ne peut pr\u00e9supposer que la technologie r\u00e9pondant \u00e0 nos besoins \u00e9nerg\u00e9tiques va demeurer constante, il pourrait y avoir des progr\u00e8s en mati\u00e8re d\u2019efficacit\u00e9 ou des changements dans la composition \u00e9nerg\u00e9tique globale.<\/li>\n<li>On ne peut pr\u00e9supposer que l\u2019efficacit\u00e9 de la technologie sp\u00e9cifique adopt\u00e9e va demeurer constante : nous avons observ\u00e9 de nombreux exemples de secteurs pour lesquels la version initiale d\u2019une technologie ou du logiciel s\u2019est ensuite am\u00e9lior\u00e9e, pour pr\u00e9senter des capacit\u00e9s optimis\u00e9es tout en consommant moins d\u2019\u00e9nergie<\/li>\n<\/ul>\n<p style=\"text-align: justify;\">Nous devons \u00e9galement reconna\u00eetre que l\u2019intelligence artificielle (IA) elle-m\u00eame pourrait apporter des solutions en mati\u00e8re d\u2019efficacit\u00e9 \u00e9nerg\u00e9tique pour des applications sp\u00e9cifiques, comme le chauffage et la climatisation d\u2019un b\u00e2timent. Par cons\u00e9quent, toute analyse de l\u2019utilisation de l\u2019\u00e9nergie et de l\u2019IA doit comprendre que la seule constante sera le changement.<\/p>\n<p style=\"text-align: justify;\"><strong>L\u2019impact environnemental de grands mod\u00e8les de langage (LLM) sp\u00e9cifiques<\/strong><\/p>\n<p style=\"text-align: justify;\">Les LLM se taillent la part du lion dans l\u2019effervescence actuelle autour de l\u2019IA g\u00e9n\u00e9rative. Il est logique de consid\u00e9rer la quantit\u00e9 d\u2019\u00e9missions de carbone g\u00e9n\u00e9r\u00e9e par certains de ces syst\u00e8mes. Le rapport Stanford AI Index, publi\u00e9 en 2023, a fourni des donn\u00e9es et a not\u00e9 que des facteurs tels que le nombre de param\u00e8tres dans un mod\u00e8le, l\u2019indicateur d\u2019efficacit\u00e9 \u00e9nerg\u00e9tique[1] d\u2019un centre de donn\u00e9es et l\u2019intensit\u00e9 carbone du r\u00e9seau ont tous leur importance.<\/p>\n<p style=\"text-align: justify;\"><strong>Les Graphiques 1a et 1b fournissent plus de d\u00e9tail concernant l\u2019intensit\u00e9 de dioxyde de carbone de diff\u00e9rents LLM :<\/strong><\/p>\n<ul style=\"text-align: justify;\">\n<li>De multiples facteurs d\u00e9terminent le r\u00e9sultat : dans le Graphique 1a, il est tentant d\u2019observer le \u00ab Nombre de param\u00e8tres \u00bb et de pr\u00e9dire qu\u2019un plus grand nombre de param\u00e8tres signifie toujours plus d\u2019\u00e9missions. On peut voir que Gopher, \u00e0 280 milliards de param\u00e8tres, n\u2019avait pas l\u2019\u00e9quivalent d\u2019\u00e9missions de dioxyde de carbone le plus \u00e9lev\u00e9 x IEE (cette distinction est revenue \u00e0 GPT-3).<\/li>\n<li>GPT-3, bien qu\u2019il ne soit pas le plus grand mod\u00e8le en termes de nombre de param\u00e8tres, a \u00e9t\u00e9 utilis\u00e9 avec une intensit\u00e9 de carbone en r\u00e9seau la plus \u00e9lev\u00e9e des mod\u00e8les montr\u00e9s et avait la consommation d\u2019\u00e9nergie la plus importante. Cette situation est certainement propice \u00e0 des \u00e9missions \u00e9lev\u00e9es, mais il est int\u00e9ressant de constater que cela nous force \u00e0 r\u00e9fl\u00e9chir non seulement au nombre de param\u00e8tres, mais \u00e0 la localisation du centre de donn\u00e9es o\u00f9 a lieu la formation, \u00e0 l\u2019intensit\u00e9 de r\u00e9seau des \u00e9missions de carbone du centre de donn\u00e9es, et \u00e0 la consommation d\u2019\u00e9nergie du mod\u00e8le.<\/li>\n<li>Le Graphique 1b est con\u00e7u pour prendre une activit\u00e9 relativement abstraite (par exemple l\u2019entra\u00eenement d\u2019un LLM) et y lier des \u00e9missions de carbone r\u00e9sultant d\u2019activit\u00e9s plus concr\u00e8tes, par exemple un vol de New York \u00e0 San Francisco. Cela permet de donner une \u00e9chelle et de mieux comprendre ce que signifie le fait que \u00ab GPT-3 est associ\u00e9 \u00e0 l\u2019\u00e9quivalent de l\u2019\u00e9mission de 502 tonnes de dioxyde de carbone \u00bb.<\/li>\n<\/ul>\n<p style=\"text-align: justify;\"><strong>Graphique 1a : L\u2019impact environnemental de mod\u00e8les sp\u00e9cifiques de machine learning, 2022<\/strong><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-22716\" src=\"https:\/\/www.etfworld.com\/fr\/wp-content\/uploads\/2023\/06\/21-06-23-1-WisdomTree-ETF.png\" alt=\"\" width=\"650\" height=\"146\" srcset=\"https:\/\/www.etfworld.com\/fr\/wp-content\/uploads\/2023\/06\/21-06-23-1-WisdomTree-ETF.png 650w, https:\/\/www.etfworld.com\/fr\/wp-content\/uploads\/2023\/06\/21-06-23-1-WisdomTree-ETF-300x67.png 300w\" sizes=\"auto, (max-width: 650px) 100vw, 650px\" \/><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-size: 10pt;\">Source : Nestor Maslej, Loredana Fattorini, Erik Brynjolfsson, John Etchemendy, Katrina Ligett, Terah Lyons, James Manyika, Helen Ngo, Juan Carlos Niebles, Vanessa Parli, Yoav Shoham, Russell Wald, Jack Clark, and Raymond Perrault, \u00ab The AI Index 2023 Annual Report \u00bb, AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, CA, avril 2023.<\/span><\/p>\n<p style=\"text-align: justify;\"><strong>Graphique 1b : L\u2019\u00e9quivalent des \u00e9missions de carbone dioxyde (tonnes) par mod\u00e8le sp\u00e9cifique de machine learning et exemples de la vie r\u00e9elle<\/strong><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-22717\" src=\"https:\/\/www.etfworld.com\/fr\/wp-content\/uploads\/2023\/06\/21-06-23-2-WisdomTree-ETF.png\" alt=\"21-06-23 2 WisdomTree ETF\" width=\"650\" height=\"349\" srcset=\"https:\/\/www.etfworld.com\/fr\/wp-content\/uploads\/2023\/06\/21-06-23-2-WisdomTree-ETF.png 650w, https:\/\/www.etfworld.com\/fr\/wp-content\/uploads\/2023\/06\/21-06-23-2-WisdomTree-ETF-300x161.png 300w\" sizes=\"auto, (max-width: 650px) 100vw, 650px\" \/><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-size: 10pt;\">Source : Nestor Maslej, Loredana Fattorini, Erik Brynjolfsson, John Etchemendy, Katrina Ligett, Terah Lyons, James Manyika, Helen Ngo, Juan Carlos Niebles, Vanessa Parli, Yoav Shoham, Russell Wald, Jack Clark, and Raymond Perrault, \u00ab The AI Index 2023 Annual Report \u00bb, AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, CA, avril 2023.<\/span><\/p>\n<p style=\"text-align: justify;\"><strong>R\u00e9fl\u00e9chir \u00e0 la consommation d\u2019\u00e9nergie d\u2019un LLM<\/strong><\/p>\n<p style=\"text-align: justify;\">Les concepteurs de diff\u00e9rents LLM disposent de nombreux leviers qu\u2019ils peuvent actionner pour influencer diff\u00e9rentes caract\u00e9ristiques, notamment la consommation d\u2019\u00e9nergie. Des chercheurs de Google ont propos\u00e9 une famille de mod\u00e8les de langage nomm\u00e9e GLaM (Generalist Language Model), qui utilise un \u00ab m\u00e9lange d\u2019experts peu activ\u00e9s \u00bb. Bien qu\u2019une discussion compl\u00e8te sur le fonctionnement de ce type d\u2019approche d\u00e9passe le cadre de cet article, on peut noter que le plus grand des mod\u00e8les de GLaM compte 1,2 billion de param\u00e8tres. En ne connaissant que ce point de donn\u00e9es, on pourrait supposer que ce mod\u00e8le consomme plus d\u2019\u00e9nergie que n\u2019importe lequel des mod\u00e8les pr\u00e9sent\u00e9s dans les figures 1a et 1b.<\/p>\n<p style=\"text-align: justify;\">En r\u00e9alit\u00e9, le mod\u00e8le GLaM avec 1,2 billion de param\u00e8tre consomme seulement un tiers de l\u2019\u00e9nergie n\u00e9cessaire pour entra\u00eener GPT-3 et n\u00e9cessite seulement la moiti\u00e9 des flops de calcul pour les op\u00e9rations d\u2019inf\u00e9rence. Une fa\u00e7on simple d\u2019y r\u00e9fl\u00e9chir est de penser que, si le mod\u00e8le total compte 1,2 billion de param\u00e8tres, un jeton d\u2019entr\u00e9e donn\u00e9 dans le mod\u00e8le GLaM active seulement un maximum de 95 milliards de param\u00e8tres, c\u2019est-\u00e0-dire que le mod\u00e8le entier n\u2019est pas actif pour tous les param\u00e8tres. GPT-3, lui, activait tous ses 175 milliards de param\u00e8tres \u00e0 chaque jeton d\u2019entr\u00e9e[2]. Il est \u00e0 noter que, m\u00eame si la mesure des performances des mod\u00e8les d\u2019IA s\u2019effectue sur plusieurs dimensions, le mod\u00e8le GLaM est \u00e9galement capable de surpasser le mod\u00e8le GPT-3 selon de nombreuses mesures[3].<\/p>\n<p style=\"text-align: justify;\"><strong>Conclusion<\/strong><\/p>\n<p style=\"text-align: justify;\">Pour r\u00e9sumer, la conception des mod\u00e8les est importante, et si les concepteurs de mod\u00e8les veulent trouver des fa\u00e7ons de maintenir la performance en utilisant moins d\u2019\u00e9nergie, ils disposent de nombreuses options pour ce faire.<\/p>\n<p style=\"text-align: justify;\"><span style=\"font-size: 10pt;\">[1] L\u2019indicateur d\u2019efficacit\u00e9 \u00e9nerg\u00e9tique (IEE) est utile dans son \u00e9valuation de l\u2019efficacit\u00e9 \u00e9nerg\u00e9tique des centres de donn\u00e9es de fa\u00e7on norm\u00e9e. IEE = (quantit\u00e9 totale d\u2019\u00e9nergie utilis\u00e9e par un centre de donn\u00e9es informatique) \/ (\u00e9nergie d\u00e9livr\u00e9e \u00e0 un \u00e9quipement informatique). Un IEE plus \u00e9lev\u00e9 signifie que le centre de donn\u00e9es est moins efficace.<\/span><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-size: 10pt;\">[2] Source : Patterson, David; Gonzalez, Joseph; H\u00f6lzle, Urs; Le, Quoc Hung\u2009; Liang, Chen; Munguia, Lluis-Miquel; et al. (2022) : The Carbon Footprint of Machine Learning Training Will Plateau, Then Shrink. TechRxiv. Preprint. <\/span><span style=\"font-size: 10pt;\">https:\/\/doi.org\/10.36227\/techrxiv.19139645.v4<\/span><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-size: 10pt;\">[3] Source : Du et al, 1 ao\u00fbt 2022.<\/span><\/p>\n<p style=\"text-align: justify;\">Source: ETFWorld<\/p>\n","protected":false},"excerpt":{"rendered":"<p>WisdomTree : Sur des questions aussi importantes, rien ne demeure constant.<\/p>\n","protected":false},"author":4,"featured_media":17742,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"telegram_tosend":false,"telegram_tosend_message":"","telegram_tosend_target":0,"footnotes":"","_wpscp_schedule_draft_date":"","_wpscp_schedule_republish_date":"","_wpscppro_advance_schedule":false,"_wpscppro_advance_schedule_date":"","_wpscppro_dont_share_socialmedia":false,"_wpscppro_custom_social_share_image":0,"_facebook_share_type":"","_twitter_share_type":"","_linkedin_share_type":"","_pinterest_share_type":"","_linkedin_share_type_page":"","_instagram_share_type":"","_medium_share_type":"","_threads_share_type":"","_google_business_share_type":"","_selected_social_profile":[],"_wpsp_enable_custom_social_template":false,"_wpsp_social_scheduling":{"enabled":false,"datetime":null,"platforms":[],"status":"template_only","dateOption":"today","timeOption":"now","customDays":"","customHours":"","customDate":"","customTime":"","schedulingType":"absolute"},"_wpsp_active_default_template":true},"categories":[44],"tags":[80,412,205],"class_list":["post-22714","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-analyses-etf","tag-etf","tag-ia","tag-wisdomtree"],"blocksy_meta":{"styles_descriptor":{"styles":{"desktop":"","tablet":"","mobile":""},"google_fonts":[],"version":6}},"_links":{"self":[{"href":"https:\/\/www.etfworld.com\/fr\/wp-json\/wp\/v2\/posts\/22714","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.etfworld.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.etfworld.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.etfworld.com\/fr\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/www.etfworld.com\/fr\/wp-json\/wp\/v2\/comments?post=22714"}],"version-history":[{"count":5,"href":"https:\/\/www.etfworld.com\/fr\/wp-json\/wp\/v2\/posts\/22714\/revisions"}],"predecessor-version":[{"id":22730,"href":"https:\/\/www.etfworld.com\/fr\/wp-json\/wp\/v2\/posts\/22714\/revisions\/22730"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.etfworld.com\/fr\/wp-json\/wp\/v2\/media\/17742"}],"wp:attachment":[{"href":"https:\/\/www.etfworld.com\/fr\/wp-json\/wp\/v2\/media?parent=22714"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.etfworld.com\/fr\/wp-json\/wp\/v2\/categories?post=22714"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.etfworld.com\/fr\/wp-json\/wp\/v2\/tags?post=22714"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}