論文中のトランスフォーマーモデルの主要構成要素の図解
『Attention Is All You Need 』[ 1] (日本語訳: 『注意 こそはすべて』)は、Google で働く8人の科学者によって執筆された、2017年の機械学習 における画期的な学術出版 研究論文である[ 2] [ 3] 。
この論文は、Bahdanauらが2014年に提案した注意機構 に基づく、トランスフォーマー として知られる新しいディープラーニング アーキテクチャを導入した[ 4] 。トランスフォーマーのアプローチは、GPT に基づくもののような大規模言語モデル の主要なアーキテクチャとなっているため、現代の人工知能 における基礎的な論文とみなされている[ 5] [ 6] [ 7] 。当時、研究の焦点は機械翻訳 のためのSeq2seq 技術の改善にあったが、著者たちは論文中でさらに進んで、質問応答や、現在マルチモーダル生成AI として知られるものなど、他のタスクへのこの技術の潜在的な可能性を予見している[ 1] 。
論文のタイトルは、ビートルズ の楽曲「All You Need Is Love」(「愛こそはすべて 」)のオマージュ である[ 8] 。「トランスフォーマー」という名称は、著者の一人であるUszkoreitがこの単語の音を気に入ったため選ばれた[ 9] 。
本アーキテクチャの初期の設計文書は"Transformers: Iterative Self-Attention and Processing for Various Tasks"と題されており、アニメ番組『トランスフォーマー 』の6人のキャラクターのイラストが含まれていた。チームはチーム・トランスフォーマーと名付けられた[ 8] 。
チームがトランスフォーマーアーキテクチャを試した初期の例には、英語からドイツ語への翻訳、「トランスフォーマー」に関するウィキペディア の記事の生成、構文解析 などが含まれていた。これらの試みは、トランスフォーマーが翻訳だけでなく汎用言語モデルであることをチームに確信させた[ 9] 。
2024年現在[update] この論文は10万回以上引用されている[ 10] 。
論文の著者は、Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan Gomez、Lukasz Kaiser、Illia Polosukhinである。8人の著者は全員、論文に「同等に貢献」しており、記載されている順番はランダムに決定された。Wired の記事は、グループの多様性を強調している[ 8] 。
8人の著者のうち6人は米国以外で生まれ、残りの2人はそれぞれ、一時的にカリフォルニアに滞在していたグリーンカード 保持者のドイツ人の子供と、迫害から逃れてきた家族を持つ第一世代のアメリカ人である。
2023年までに、8人全員がGoogleを退社し、それぞれが独自のAIスタートアップを設立した(OpenAI に参加したŁukasz Kaiserを除く)[ 8] [ 10] 。Llion JonesはSakana AI を創業した。
^ a b Vaswani, Ashish ; Shazeer, Noam ; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N ; Kaiser, Łukasz; Polosukhin, Illia (2017). “Attention is All you Need” . Advances in Neural Information Processing Systems (Curran Associates, Inc.) 30 . https://proceedings.neurips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf .
^ Love, Julia (2023年7月10日). “AI Researcher Who Helped Write Landmark Paper Is Leaving Google ”. Bloomberg News . 2024年10月1日 閲覧。
^ Goldman, Sharon (2024年3月20日). “'Attention is All You Need' creators look beyond Transformers for AI at Nvidia GTC: 'The world needs something better' ”. VentureBeat . 2024年10月1日 閲覧。
^ Bahdanau, Dzmitry; Cho, Kyunghyun; Bengio, Yoshua (19 May 2016). "Neural Machine Translation by Jointly Learning to Align and Translate". arXiv :1409.0473 [cs.CL ]。
^ Shinde, Gitanjali; Wasatkar, Namrata; Mahalle, Parikshit (2024-06-06). Data-Centric Artificial Intelligence for Multidisciplinary Applications . CRC Press . p. 75. ISBN 9781040031131 . https://books.google.com/books?id=tqUIEQAAQBAJ&pg=PA75
^ Toews, Rob (3 September 2023). “Transformers Revolutionized AI. What Will Replace Them?” . Forbes . オリジナル の26 September 2023時点におけるアーカイブ。. https://web.archive.org/web/20230926212003/https://www.forbes.com/sites/robtoews/2023/09/03/transformers-revolutionized-ai-what-will-replace-them/ 2024年10月1日 閲覧。
^ Murgia, Madhumita (23 July 2023). “Transformers: the Google scientists who pioneered an AI revolution” . Financial Times . オリジナル の2023年12月28日時点におけるアーカイブ。. https://archive.today/20231228061648/https://www.ft.com/content/37bb01af-ee46-4483-982f-ef3921436a50 2024年10月1日 閲覧。
^ a b c d Levy, Steven. “8 Google Employees Invented Modern AI. Here's the Inside Story” (英語). Wired . ISSN 1059-1028 . https://www.wired.com/story/eight-google-employees-invented-modern-ai-transformers-paper/ 2024年10月1日 閲覧。 .
^ a b Marche, Stephen (2024-08-23). “Was Linguistic A.I. Created by Accident?” (英語). The New Yorker . ISSN 0028-792X . https://www.newyorker.com/science/annals-of-artificial-intelligence/was-linguistic-ai-created-by-accident 2024年10月1日 閲覧。 .
^ a b “Meet the $4 Billion AI Superstars That Google Lost” . Bloomberg . (13 July 2023). https://www.bloomberg.com/opinion/features/2023-07-13/ex-google-scientists-kickstarted-the-generative-ai-era-of-chatgpt-midjourney