/*! elementor – v3.14.0 – 18-06-2023 */
.elementor-widget-image{text-align:center}.elementor-widget-image a{display:inline-block}.elementor-widget-image a img[src$=”.svg”]{width:48px}.elementor-widget-image img{vertical-align:middle;display:inline-block}
/*! elementor – v3.14.0 – 18-06-2023 */
.elementor-column .elementor-spacer-inner{height:var(–spacer-size)}.e-con{–container-widget-width:100%}.e-con-inner>.elementor-widget-spacer,.e-con>.elementor-widget-spacer{width:var(–container-widget-width,var(–spacer-size));–align-self:var(–container-widget-align-self,initial);–flex-shrink:0}.e-con-inner>.elementor-widget-spacer>.elementor-widget-container,.e-con-inner>.elementor-widget-spacer>.elementor-widget-container>.elementor-spacer,.e-con>.elementor-widget-spacer>.elementor-widget-container,.e-con>.elementor-widget-spacer>.elementor-widget-container>.elementor-spacer{height:100%}.e-con-inner>.elementor-widget-spacer>.elementor-widget-container>.elementor-spacer>.elementor-spacer-inner,.e-con>.elementor-widget-spacer>.elementor-widget-container>.elementor-spacer>.elementor-spacer-inner{height:var(–container-widget-height,var(–spacer-size))}
/*! elementor – v3.14.0 – 18-06-2023 */
.elementor-heading-title{padding:0;margin:0;line-height:1}.elementor-widget-heading .elementor-heading-title[class*=elementor-size-]>a{color:inherit;font-size:inherit;line-height:inherit}.elementor-widget-heading .elementor-heading-title.elementor-size-small{font-size:15px}.elementor-widget-heading .elementor-heading-title.elementor-size-medium{font-size:19px}.elementor-widget-heading .elementor-heading-title.elementor-size-large{font-size:29px}.elementor-widget-heading .elementor-heading-title.elementor-size-xl{font-size:39px}.elementor-widget-heading .elementor-heading-title.elementor-size-xxl{font-size:59px}
Le Transformer est une architecture relativement nouvelle qui a été introduite pour la première fois dans l’article “Attention Is All You Need” par Vaswani et al. en 2017 (de chez Google).
L’innovation-clé du Transformer réside dans son mécanisme d’attention, qui lui permet de comprendre les relations entre différents mots dans une phrase.
Pour donner un exemple simple, considérez une phrase comme “Le chat qui a mangé la souris était gris.”
Pour comprendre qui était gris, il faut tenir compte de tous les mots et comprendre leur relation.
Le mécanisme d’attention permet de faire exactement cela.
Imagine que tu as un grand sac plein de jouets.
Certains sont des voitures, d’autres des dinosaures, et d’autres encore sont des blocs de construction.
Maintenant, imagine que tu as une baguette magique qui peut transformer ces jouets en histoires !
Par exemple, si tu as une voiture, un dinosaure et un bloc de construction, la baguette magique pourrait raconter une histoire sur un dinosaure qui construit une voiture géante !
C’est un peu comme ça que fonctionnent les Transformers.
Ils transforment des mots en mini-histoires, puis ils imaginent la meilleure histoire qui lie toutes les mini-histoires entre elles, en reprenant à chaque nouvelle mini-histoire à inclure, l’histoire depuis le début pour qu’elle reste juste.
Le mécanisme d’attention fonctionne en prenant une série de mots (qu’on appelle les Tokens) et en les passant par une série de transformations mathématiques.
Ces transformations permettent de déterminer l’importance relative de chaque mot par rapport aux autres mots de la phrase.
Par exemple, dans notre phrase sur le chat et la souris, le mécanisme d’attention permettrait de comprendre que le mot “gris” se rapporte au “chat” et non à la “souris”.
Une des principales idées derrière le Transformer est que ce mécanisme d’attention est suffisant pour comprendre les séquences de langage.
Contrairement aux anciens modèles de RNN et LSTM qui traitaient le langage de manière séquentielle, le Transformer est capable de traiter tous les mots d’une phrase en même temps, ce qui le rend beaucoup plus efficace et précis.
Il imagine le mot suivant en tenant compte de l’ensemble de la phrase.
L’un des usages les plus courants du Transformer est la génération de texte.
Pour cela, on commence avec une phrase d’entrée (ou un “prompt”), et le Transformer génère le mot suivant qui a le plus de sens dans le contexte de la phrase.
En répétant ce processus, le Transformer peut générer des phrases et des textes entiers qui semblent naturels et cohérents.
Le début de son processus de génération n’est pas le début de sa réponse, mais le début de votre prompt, dont il tient compte pour imaginer la suite probable, qui s’avère être la réponse attendue.
L’architecture Transformer a révolutionné l’IA et le traitement du langage naturel.
Grâce à son mécanisme d’attention, elle permet une analyse précise du langage et une génération de texte très efficace.
Que ce soit pour la traduction automatique, la génération de texte ou la compréhension du langage naturel, les Transformers sont devenus un outil essentiel dans le domaine de l’IA.
Source :