{"id":5169,"date":"2024-12-16T20:03:56","date_gmt":"2024-12-16T20:03:56","guid":{"rendered":"https:\/\/campus.hesge.ch\/blog-master-is\/?p=5169"},"modified":"2025-01-30T09:52:49","modified_gmt":"2025-01-30T09:52:49","slug":"advanced-neural-net-des-neurones-qui-nous-parlent","status":"publish","type":"post","link":"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/","title":{"rendered":"Advanced Neural Net : des neurones qui nous parlent"},"content":{"rendered":"<div class=\"wp-block-image\">\n<figure class=\"alignleft size-full is-resized\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1021\" height=\"1015\" src=\"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1.png\" alt=\"\" class=\"wp-image-5369\" style=\"width:250px\" srcset=\"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1.png 1021w, https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1-300x298.png 300w, https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1-150x150.png 150w, https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1-768x763.png 768w\" sizes=\"(max-width: 1021px) 100vw, 1021px\" \/><figcaption class=\"wp-element-caption\">Image g\u00e9n\u00e9r\u00e9e par Bing \u2013Image Creator<\/figcaption><\/figure><\/div>\n\n\n<p>Lors de ce s\u00e9minaire, ce sujet passionnant tr\u00e8s difficile \u00e0 vulgariser a \u00e9t\u00e9 brillamment pr\u00e9sent\u00e9: entre les exemples pratiques, les sch\u00e9mas et les explications tr\u00e8s p\u00e9dagogiques des concepts sous-jacents, la salle est repartie avec quelques <em>neurones<\/em> suppl\u00e9mentaires. Mais d&#8217;ailleurs, pourquoi les neurones ? Qu&#8217;ont-ils \u00e0 voir avec le machine learning et pourquoi nous parlent-ils ? C&#8217;est \u00e0 mon tour de vous le retranscrire, en quelques mots&#8230;<\/p>\n\n\n\n<p>Les r\u00e9seaux de neurones ne sont pas trouvables que dans les cerveaux biologiques : ce sont aussi le nom de fonctions math\u00e9matiques, qui sont capables prendre un <em>input<\/em> (ou donn\u00e9e d&#8217;entr\u00e9e), de le transformer, et de produire un <em>output<\/em> (ou donn\u00e9e de sortie). Plus il y a de couches et de neurones, plus les donn\u00e9es peuvent devenir complexes! D&#8217;ailleurs, lorsqu&#8217;on parle de couches multiples, on parle de couches interm\u00e9diaires, aussi appel\u00e9es couches cach\u00e9es ou <em>hidden units<\/em>.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignright size-full is-resized\"><img decoding=\"async\" width=\"591\" height=\"501\" src=\"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image.png\" alt=\"\" class=\"wp-image-5368\" style=\"width:450px\" srcset=\"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image.png 591w, https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-300x254.png 300w\" sizes=\"(max-width: 591px) 100vw, 591px\" \/><figcaption class=\"wp-element-caption\">Network diagramfor a two-layer neural network. Bishop, 2021<\/figcaption><\/figure><\/div>\n\n\n<p>Mais \u00e0 quoi cela sert-il ? Et bien \u00e0 beaucoup de choses ! Les r\u00e9seaux de neurones peuvent \u00eatre appliqu\u00e9s \u00e0 des t\u00e2ches tr\u00e8s complexes, et sont utilis\u00e9es dans les applications de reconnaissance faciale, dans les voitures autonomes, le traitement du langage naturel, les traducteurs automatiques, ou m\u00eame dans la d\u00e9tection de fraude. Il en faut des neurones pour faire tout cela&#8230;<\/p>\n\n\n\n<p>Ce qui nous int\u00e9resse ici, c&#8217;est la partie du langage : un sujet br\u00fblant depuis quelques ann\u00e9es, avec ChatGPT et la d\u00e9mocratisation de ce genre d&#8217;IA g\u00e9n\u00e9rative. Elles sont construites sur des grands mod\u00e8les de langage, ou en anglais <em>large language model<\/em>s. On les abr\u00e9ge par LLM et, tels des agents secrets, ils ont une <em>mission<\/em> : c\u2019est d\u2019apprendre les structures du langage, les liens entre les mots, le contexte de leur utilisation. Pour cela ils ont besoin de mod\u00e8les de <em>Transformers<\/em>. Mais pas ici question de voitures-aliens-robots, n&#8217;en d\u00e9plaisent aux fans : on parle ici d&#8217;un mod\u00e8le de r\u00e9seaux de neurones tr\u00e8s puissant, qui a r\u00e9volutionn\u00e9 les LLM par sa grande capacit\u00e9.<\/p>\n\n\n\n<p>En fait, l&#8217;anc\u00eatre des transformers, c&#8217;\u00e9tait un peu les RNN, ou <em>Recurrent Neural Network<\/em>. Mais si, vous les connaissez ! Les auto-compl\u00e9teurs, lorsque vous \u00e9crivez en e-mail, ou un SMS. Peut-\u00eatre avez-vous d\u00e9j\u00e0 jou\u00e9 un peu avec cette fonction, en essayant de s\u00e9lectionner tous les mots qu&#8217;il vous propose et former une phrase faite toute enti\u00e8re d&#8217;auto-compl\u00e9teur ? Pour s&#8217;amuser un peu, j&#8217;ai d\u00e9cid\u00e9 de le faire, en commen\u00e7ant par les mots &#8220;Advanced Neural Net&#8221;. Voici ce que l&#8217;auto-compl\u00e9teur a propos\u00e9 :<\/p>\n\n\n\n<p class=\"has-text-align-center has-light-green-cyan-to-vivid-green-cyan-gradient-background has-background\">&#8220;<strong>Advanced neural net<\/strong> worth of the same as the other one I think I was in the same place as a team leader and they were the same as the other one who said it was a good idea to do it and I don&#8217;t know what to do with the kids and I don&#8217;t know what to do with the kids and I don&#8217;t know what to do with the kids.&#8221;<\/p>\n\n\n\n<p>Un blocage l\u00e9g\u00e8rement sinistre sur la derni\u00e8re phrase mis \u00e0 part, qu&#8217;observe-t-on ici ? Eh bien, pas une phrase coh\u00e9rente en tout cas! Cela est d\u00fb \u00e0 la fa\u00e7on dont les RNN fonctionnent. Ils prennent en compte les \u00e9l\u00e9ments pr\u00e9c\u00e9dents (donc les mots entr\u00e9s pr\u00e9c\u00e9demment) de fa\u00e7on s\u00e9quentielle. Cela pose des probl\u00e8mes techniques qu&#8217;on appelle probl\u00e8mes de &#8220;vanishing&#8221; et &#8220;exploding gradient&#8221;. En d&#8217;autres termes, ils sont limit\u00e9s !<\/p>\n\n\n\n<p>On a aussi d\u00e9velopp\u00e9 d&#8217;autres outils, comme les LSTM ou les GRU, mais il avaient d&#8217;autres probl\u00e8mes, car soit trop gourmand en puissance de calcul, soit en m\u00e9moire ! Les transformer sont plus performants et permettent une parall\u00e9lisation, ce qui change tout notre paradigme.<\/p>\n\n\n\n<p>Dans l&#8217;article <a href=\"https:\/\/arxiv.org\/abs\/1706.03762\">&#8220;Attention is all you need&#8221;<\/a> (Vaswani &amp; Co, 2017), pr\u00e9sent\u00e9 en premier dans ce s\u00e9minaire, les auteurs ont utilis\u00e9 en premier le concept du m\u00e9canisme d&#8217;attention (exemple des \u00ab&nbsp;livre&nbsp;\u00bb)&nbsp;: comment la machine peut comprendre le contexte pour interpr\u00e9ter les mots. La solution technique, c&#8217;est de comparer la Query avec toutes les keys (\u00e9l\u00e9ments\/mots) pour d\u00e9terminer les associations les plus pertinentes : c&#8217;est le m\u00e9canisme d&#8217;attention. Ils ont ainsi d\u00e9montr\u00e9 que leur grand mod\u00e8le a fait bien mieux en performance que les autres (<a href=\"https:\/\/fr.wikipedia.org\/wiki\/BLEU_(algorithme)\">m\u00e9trique BLEU<\/a>).<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignright size-full is-resized\"><img decoding=\"async\" width=\"1024\" height=\"1021\" src=\"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-2.png\" alt=\"\" class=\"wp-image-5371\" style=\"width:400px\" srcset=\"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-2.png 1024w, https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-2-300x300.png 300w, https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-2-150x150.png 150w, https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-2-768x766.png 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">Image g\u00e9n\u00e9r\u00e9e par Bing \u2013Image Creator<\/figcaption><\/figure><\/div>\n\n\n<p>Dans le second article, &#8220;<a href=\"https:\/\/doi.org\/10.5860\/ital.v42i3.16295\">From ChatGPT to CatGPT : The Implications of Artificial Intelligence on Library Cataloging<\/a>&#8221; (Brzustowicz, 2023), l&#8217;auteur a demand\u00e9 \u00e0 ChatGPT de g\u00e9n\u00e9rer des notices de catalogage de biblioth\u00e8que. On rel\u00e8vera que l&#8217;auteur n&#8217;a pas partag\u00e9 les requ\u00eates qu&#8217;il a entr\u00e9es, ce qui serait souhaitable dans ce genre de d\u00e9marche. Sa conclusion, apr\u00e8s avoir g\u00e9n\u00e9r\u00e9 diverses notices &#8211; une qui n&#8217;avait encore aucune entr\u00e9e dans WorldCat par exemple, c&#8217;est que le potentiel de l&#8217;IA est prometteur pour le futur du catalogage. Cependant, une intervention humaine reste importante, car ChatGPT a r\u00e9guli\u00e8rement fait des erreurs, des r\u00e9p\u00e9titions, des impr\u00e9cisions. Il a \u00e9galement invent\u00e9 lorsqu&#8217;il ne trouvait pas d&#8217;information, ce qui prouve qu&#8217;il ne devrait \u00eatre utilis\u00e9 que comme moyen auxiliaire pour le moment.<\/p>\n\n\n\n<p>L&#8217;article <a href=\"https:\/\/doi.org\/10.48550\/arXiv.2404.08555\">RLHF Deciphered: A Critical Analysis Of Reinforcement Learning From Human Feedback For LLMs<\/a> (Chaudhari et al., 2024) pr\u00e9sent\u00e9 en dernier nous parle du concept de RLHF : L&#8217;apprentissage par renforcement \u00e0 partir du feedback humain. C&#8217;est une technique pour am\u00e9liorer les LLMS, en alignant leurs r\u00e9ponses sur les pr\u00e9f\u00e9rences humaines. En effet et comme vu pr\u00e9c\u00e9demment, les LLMs peuvent <em>halluciner<\/em>, c&#8217;est \u00e0 dire donner des informations qui semblent cr\u00e9dibles mais qui sont fausses ou absurdes. De plus, ils peuvent \u00eatre fortement influenc\u00e9s par des biais humains non voulus, et donner des r\u00e9ponses probl\u00e9matiques, dites aussi &#8220;toxiques&#8221;. 3 principes de base sous-tendent cette d\u00e9marche d&#8217;alignement : Helpfulness, Honesty, Harmlessness.<\/p>\n\n\n\n<p>La m\u00e9thode RLHF est un processus it\u00e9ratif qui prend en compte un <em>feedback<\/em> humain sur les r\u00e9ponses du LLM, et ce qu&#8217;on appelle un syst\u00e8me de r\u00e9compenses. Ces r\u00e9compenses sont en fait un score, qui va \u00eatre utilis\u00e9 pour aider le LLM a donn\u00e9 des r\u00e9ponses souhaitables en essayant de maximiser ce score. Les avantages du RLHF&nbsp;sont nombreux : am\u00e9lioration de la qualit\u00e9 des r\u00e9ponses, r\u00e9duction des biais, adaptation aux contextes culturels et \u00e9thiques, am\u00e9lioration et donc renforcement de la confiance des utilisateurs. Mais il pr\u00e9sente aussi des limitations, en particulier des probl\u00e8mes de calibration dans le cas o\u00f9 les donn\u00e9es d&#8217;entra\u00eenement seraient tr\u00e8s diff\u00e9rentes de celles entr\u00e9es ensuite. Une forme de subjectivit\u00e9 et de fragilit\u00e9 est \u00e9galement impossible \u00e0 \u00e9viter, du fait justement de ce feedback humain.<\/p>\n\n\n\n<p>En conclusion, les &#8220;Advanced Neural Net&#8221; sont une nouvelle technologie cruciale, qui n&#8217;a pas fini de nous \u00e9tonner, mais il faut garder un esprit critique : car m\u00eame si les LLM sont extr\u00eamement puissants, ils sont aussi tr\u00e8s complexes et peuvent avoir des biais, puisqu&#8217;ils sont en quelque sorte notre miroir. En effet, afin de mieux nous servir, ils doivent \u00eatre faits \u00e0 notre image : entra\u00een\u00e9s sur nous, par nous, pour nous. Et comme on le sait, &#8220;<a href=\"https:\/\/fr.wikipedia.org\/wiki\/Errare_humanum_est,_perseverare_diabolicum\">Errare humanum est<\/a>&#8221; !<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Lors de ce s\u00e9minaire, ce sujet passionnant tr\u00e8s difficile \u00e0 vulgariser a \u00e9t\u00e9 brillamment pr\u00e9sent\u00e9: entre les exemples pratiques, les sch\u00e9mas et les explications tr\u00e8s p\u00e9dagogiques des concepts sous-jacents, la salle est repartie avec quelques neurones suppl\u00e9mentaires. Mais d&#8217;ailleurs, pourquoi &hellip; <a href=\"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/\">Lire la suite\u00ad\u00ad<\/a><\/p>\n","protected":false},"author":154,"featured_media":5369,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[18],"tags":[58,52,30],"class_list":["post-5169","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-advanced-neural-net","tag-advanced-neural-network","tag-intelligence-artificielle","tag-master-is"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v23.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Advanced Neural Net : des neurones qui nous parlent - Recherche d&#039;Id\u00e9eS<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Advanced Neural Net : des neurones qui nous parlent - Recherche d&#039;Id\u00e9eS\" \/>\n<meta property=\"og:description\" content=\"Lors de ce s\u00e9minaire, ce sujet passionnant tr\u00e8s difficile \u00e0 vulgariser a \u00e9t\u00e9 brillamment pr\u00e9sent\u00e9: entre les exemples pratiques, les sch\u00e9mas et les explications tr\u00e8s p\u00e9dagogiques des concepts sous-jacents, la salle est repartie avec quelques neurones suppl\u00e9mentaires. Mais d&#8217;ailleurs, pourquoi &hellip; Lire la suite\u00ad\u00ad\" \/>\n<meta property=\"og:url\" content=\"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/\" \/>\n<meta property=\"og:site_name\" content=\"Recherche d&#039;Id\u00e9eS\" \/>\n<meta property=\"article:published_time\" content=\"2024-12-16T20:03:56+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-01-30T09:52:49+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1021\" \/>\n\t<meta property=\"og:image:height\" content=\"1015\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Fanny Schneider\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"Fanny Schneider\" \/>\n\t<meta name=\"twitter:label2\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/\",\"url\":\"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/\",\"name\":\"Advanced Neural Net : des neurones qui nous parlent - Recherche d&#039;Id\u00e9eS\",\"isPartOf\":{\"@id\":\"https:\/\/campus.hesge.ch\/blog-master-is\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1.png\",\"datePublished\":\"2024-12-16T20:03:56+00:00\",\"dateModified\":\"2025-01-30T09:52:49+00:00\",\"author\":{\"@id\":\"https:\/\/campus.hesge.ch\/blog-master-is\/#\/schema\/person\/dfc2c5a526d21e506a779941629a2277\"},\"breadcrumb\":{\"@id\":\"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/#primaryimage\",\"url\":\"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1.png\",\"contentUrl\":\"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1.png\",\"width\":1021,\"height\":1015},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Accueil\",\"item\":\"https:\/\/campus.hesge.ch\/blog-master-is\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Advanced Neural Net : des neurones qui nous parlent\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/campus.hesge.ch\/blog-master-is\/#website\",\"url\":\"https:\/\/campus.hesge.ch\/blog-master-is\/\",\"name\":\"Recherche d&#039;Id\u00e9eS\",\"description\":\"Carnet de recherche des \u00e9tudiants du Master en sciences de l&#039;information et des donn\u00e9es (Information Science - IS) de la Haute \u00e9cole de gestion de Gen\u00e8ve\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/campus.hesge.ch\/blog-master-is\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/campus.hesge.ch\/blog-master-is\/#\/schema\/person\/dfc2c5a526d21e506a779941629a2277\",\"name\":\"Fanny Schneider\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/campus.hesge.ch\/blog-master-is\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/992626023c2310f82a06d5499036cc8f?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/992626023c2310f82a06d5499036cc8f?s=96&d=mm&r=g\",\"caption\":\"Fanny Schneider\"},\"url\":\"https:\/\/campus.hesge.ch\/blog-master-is\/author\/fanny-schneider\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Advanced Neural Net : des neurones qui nous parlent - Recherche d&#039;Id\u00e9eS","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/","og_locale":"fr_FR","og_type":"article","og_title":"Advanced Neural Net : des neurones qui nous parlent - Recherche d&#039;Id\u00e9eS","og_description":"Lors de ce s\u00e9minaire, ce sujet passionnant tr\u00e8s difficile \u00e0 vulgariser a \u00e9t\u00e9 brillamment pr\u00e9sent\u00e9: entre les exemples pratiques, les sch\u00e9mas et les explications tr\u00e8s p\u00e9dagogiques des concepts sous-jacents, la salle est repartie avec quelques neurones suppl\u00e9mentaires. Mais d&#8217;ailleurs, pourquoi &hellip; Lire la suite\u00ad\u00ad","og_url":"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/","og_site_name":"Recherche d&#039;Id\u00e9eS","article_published_time":"2024-12-16T20:03:56+00:00","article_modified_time":"2025-01-30T09:52:49+00:00","og_image":[{"width":1021,"height":1015,"url":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1.png","type":"image\/png"}],"author":"Fanny Schneider","twitter_card":"summary_large_image","twitter_misc":{"\u00c9crit par":"Fanny Schneider","Dur\u00e9e de lecture estim\u00e9e":"7 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/","url":"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/","name":"Advanced Neural Net : des neurones qui nous parlent - Recherche d&#039;Id\u00e9eS","isPartOf":{"@id":"https:\/\/campus.hesge.ch\/blog-master-is\/#website"},"primaryImageOfPage":{"@id":"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/#primaryimage"},"image":{"@id":"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/#primaryimage"},"thumbnailUrl":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1.png","datePublished":"2024-12-16T20:03:56+00:00","dateModified":"2025-01-30T09:52:49+00:00","author":{"@id":"https:\/\/campus.hesge.ch\/blog-master-is\/#\/schema\/person\/dfc2c5a526d21e506a779941629a2277"},"breadcrumb":{"@id":"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/#primaryimage","url":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1.png","contentUrl":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-content\/uploads\/2024\/12\/image-1.png","width":1021,"height":1015},{"@type":"BreadcrumbList","@id":"https:\/\/campus.hesge.ch\/blog-master-is\/advanced-neural-net-des-neurones-qui-nous-parlent\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Accueil","item":"https:\/\/campus.hesge.ch\/blog-master-is\/"},{"@type":"ListItem","position":2,"name":"Advanced Neural Net : des neurones qui nous parlent"}]},{"@type":"WebSite","@id":"https:\/\/campus.hesge.ch\/blog-master-is\/#website","url":"https:\/\/campus.hesge.ch\/blog-master-is\/","name":"Recherche d&#039;Id\u00e9eS","description":"Carnet de recherche des \u00e9tudiants du Master en sciences de l&#039;information et des donn\u00e9es (Information Science - IS) de la Haute \u00e9cole de gestion de Gen\u00e8ve","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/campus.hesge.ch\/blog-master-is\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Person","@id":"https:\/\/campus.hesge.ch\/blog-master-is\/#\/schema\/person\/dfc2c5a526d21e506a779941629a2277","name":"Fanny Schneider","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/campus.hesge.ch\/blog-master-is\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/992626023c2310f82a06d5499036cc8f?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/992626023c2310f82a06d5499036cc8f?s=96&d=mm&r=g","caption":"Fanny Schneider"},"url":"https:\/\/campus.hesge.ch\/blog-master-is\/author\/fanny-schneider\/"}]}},"_links":{"self":[{"href":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-json\/wp\/v2\/posts\/5169","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-json\/wp\/v2\/users\/154"}],"replies":[{"embeddable":true,"href":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-json\/wp\/v2\/comments?post=5169"}],"version-history":[{"count":12,"href":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-json\/wp\/v2\/posts\/5169\/revisions"}],"predecessor-version":[{"id":5375,"href":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-json\/wp\/v2\/posts\/5169\/revisions\/5375"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-json\/wp\/v2\/media\/5369"}],"wp:attachment":[{"href":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-json\/wp\/v2\/media?parent=5169"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-json\/wp\/v2\/categories?post=5169"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/campus.hesge.ch\/blog-master-is\/wp-json\/wp\/v2\/tags?post=5169"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}