Generative Pre-trained Transformer 2 (GPT-2 ) は、2019年2月にOpenAI によって開発されたオープンソース の人工知能 ソフトウェアである[ 1] [ 2] [ 3] [ 4] 。GPT-2は、テキストを翻訳 し、質問に答え 、文章の要約 を行い[ 5] 、時には人間と見分けがつかない ようなテキスト出力を生成 するが[ 6] 、長い文章を生成すると繰り返したり意味不明な表現になることもある[ 7] 。GPT-2は、多目的学習器 であり、特定のタスク(仕事)を行うための特別な訓練を受けてはおらず、これらのタスクを行う能力は、任意の順序で次の項目を正確に合成する一般的な能力の延長線上にある[ 8] [ 5] 。GPT-2は、OpenAIの2018年版GPT モデルの「スケールアップ版」として構築され[ 9] 、パラメータ数と訓練用データセットがともに10倍に増加した[ 4] 。
GPTアーキテクチャは、ディープラーニング(深層学習) によるニューラルネットワーク 、具体的には「トランスフォーマー(Transformer )モデル」を実装しており[ 9] 、これまでの回帰 型や畳み込み 型のアーキテクチャの代わりに「アテンション 」を使用している[ 10] [ 11] 。アテンション機構により、モデルは、入力テキストの中から最も関連性が高いと予測される部位に選択的に焦点を当てることができる[ 12] [ 13] 。このモデルでは、並列化 を大幅に向上させることができ、RNN/CNN/LSTMに基づくモデルのこれまでのベンチマーク よりも優れた性能を発揮している[ 9] 。
OpenAIは、2019年11月、GPT-2言語モデルの完全版(15億個のパラメータを含む)を公開した[ 14] 。GPT-2に続いて、1,750億個のパラメータを含むGPT-3 [ 15] が、2020年に公開される予定だった[ 16] (そのソースコードは公開されていない)。GPT-3へのアクセスは、OpenAIとマイクロソフト が提供するアプリケーションプログラミングインタフェース (API)を通じてのみ提供されている[ 17] 。
コンピュータの黎明期 (英語版 ) から人工知能は研究対象であった。1950年にアラン・チューリング が提唱した「イミテーション・ゲーム (imitation game)」(しばしばチューリング・テストと呼ばれる)は、電子システムや機械的システムの知的行動をとる能力を、評価者がシステムと人間の行動を区別する能力によって判定することを提案するものである[ 18] 。「機械学習 (machine learning)」という用語は、早くも1959年に、IBM の研究者であるアーサー・サミュエル によって、人工知能の可能性を説明する言葉として最初に使われた[ 19] 。現在、この用語には、統計的学習 、データサイエンス 、ニューラルネットワーク など、計算問題に対するさまざまな手法(しばしば人工知能の下に置かれる)が包含されている。
コンピュータによる自然言語処理 (NLP)は、もともと計算言語学 の一分野として考えられていたもので、コンピュータのハードウェアに能力が備わると同時に試みられるようになった。1948年、ロンドンのバークベック・カレッジ で開発された辞書ルックアップテーブル が最初の応用例である[ 20] 。1954年のジョージタウン大学での実験 (英語版 ) では、60文のロシア語の文章を英語に翻訳するという(主にロシア語の単語を英語の同義語に置き換える)完全に自動化された機械翻訳 が実演された[ 21] [ 22] 。そのシステムには6つの文法規則と250語の語彙しかなく[ 23] 、統語構造 の解析や翻訳も行われなかったため、翻訳は粗雑なものが多かった[ 24] 。しかし、この実験によって、コンピュータが自然言語を解釈し処理できることが一般に証明され[ 25] 、さらなる研究のためにCIA の資金が確保された[ 21] 。直接置換は、機械翻訳プログラムを評価する際の基準として残存している。
20世紀半ばには、人間とコンピュータの対話 (HCI)に自然言語を利用するシステムも登場し始めた。1968年から1970年にかけてMITで開発された「SHRDLU 」は、いくつかの物体がある仮想空間で、ユーザーが自然言語による命令を使って対話を行うプログラムである(たとえば「今持っているものより高いブロックを探して、箱の中に入れる」)[ 26] [ 27] 。1966年に開発されたおしゃべりロボット の「ELIZA 」は、人間の対話者が入力したテキストからキーワードを解析し、会話に適する返答をした[ 28] 。多くの被験者が、ELIZAの会話と人間の会話を区別できないと主張したが、これが知性を構成するかどうかという問題については議論となった(もっとも有名な台本は、心理療法士 がユーザーの言ったことをほぼそのまま繰り返すというパロディであった)[ 29] 。
機械翻訳の初期の試みは純粋に計算によるものだったが、1950年代になると、計算言語学 の主流がノーム・チョムスキー の普遍文法 という概念が重視されるようになった[ 20] 。当時のNLP研究は、任意の自然言語の文を、言語に依存しない論理構造に還元する試みが中心であった。1970年代には、意味論的なNLPシステムは、構文的なエンコーディング (syntactic encodings)を避け、より一般意味論 的なエンコーディング(semantic encodings)を支持するようになった[ 30] 。しかし、ニューラルネットワーク が登場するまでは、ほとんどのシステムが、手作業でプログラムされた大規模な(そしてますます扱いにくくなった)ルールセット に依存し続け、当初の狙いどおりに拡張することはできなかった[ 20] 。
人工知能の分野は20世紀後半も発展を続けたが、ときおり「AIの冬 」と呼ばれる停滞期が訪れた。さまざまな文献で、 「AIの冬」はさまざまな時期に発生したと述べられている。1994年にHoweは、1973年に始まって10年続いたと著し[ 31] 、2003年のRussell & Norvigは、1988年にすぐ始まったと述べている[ 32] 。
人工知能の初期の概念であるコネクショニズム は、生物学的な脳におけるニューロン(神経細胞) の挙動をシミュレートするように設計された人工ニューラルネットワーク によって知的行動を引き起こそうとするものであった。人工ニューラルネットワークの最初の例は、1951年に構築された「SNARC (英語版 ) 」である。「パーセプトロン 」(二値分類器 の一種)は、1957年に心理学者のフランク・ローゼンブラット によって発表された[ 33] 。彼の機械は、400個のフォトセル(光電池) を「ニューロン」に接続して画像認識 するように設計され、加重値はポテンショメータ で決定されていた(訓練過程で電気モーターで調整[ 34] )。パーセプトロンは大きな話題となり、ニューヨーク・タイムズ 紙の記事で『(海軍が)期待する電子コンピュータの萠芽は、歩き、話し、見て、書き、自己複製し、自分の存在を意識できるようになるだろう』と紹介された[ 35] 。しかし、マービン・ミンスキー とシーモア・パパート による1969年の書籍「パーセプトロン:計算機科学への道 (英語版 ) 」において[ 36] 、当時の最先端技術 (単層パーセプトロン)の欠点として、排他的論理和 (XOR)関数を符号化 できないことなどが指摘されて以来、パーセプトロンシステムは数十年間も衰退したままであった。この本は当時、有望な研究分野としてのパーセプトロン(および一般的なニューラルネットワーク)を否定するものと考えられていた[ 35] 。
ニューラルネットワークは、「訓練(training)」および「学習(learning)」という過程を経て、さまざまな入力を分類 することができるようになる(すなわち個別のカテゴリに区分する)。学習は、まずネットワークの重み(各ニューロンの「活性化」が後続層の特定ニューロンの活性化に影響を与える量)をランダム (無作為)に初期化する。この状態では、ネットワークの出力も同様にランダムとなる。そして、ネットワークの出力がどれだけ望ましいできばえに近いかを定量的に測定する損失関数 などの目的関数を定義する(たとえば、手書きの数字からなる入力が、その数字に対応する出力ニューロンのみを活性化させる頻度)[ 37] 。この関数とネットワークのできばえから、重みを調整して性能を改善することができる[ 38] 。
バックプロパゲーション は、1974年のポール・ワーボス (英語版 ) の学位論文で初めて機械学習システムに適用した教師あり アルゴリズムであり[ 39] 、所与の入出力例に対するネットワーク全体の重みの最適調整を記述するベクトル場 である「勾配」の計算を効率化した[ 38] [ 37] 。この勾配を使用してニューラルネットワークを訓練する勾配降下法 によって、より複雑なシステムを構築することが可能となり、1980年代にはニューラルネットワークの自然言語処理 への応用が広まることになった[ 40] [ 32] 。1985年にはD.B. Parkerがワーボスの手法を再発見し[ 41] 、1986年にはラメルハート 、ヒントン 、ウイリアムス が「深層学習(ディープラーニング )」ネットワークと呼ばれる隠れ層を持つニューラルネットワークで、入力データの内部表現を生成するためにこの手法を応用し[ 42] 、この研究はその後の回帰型ニューラルネットワーク の基礎を築いた。
従来の順伝播型ニューラルネットワーク (FFNN)は、各層が前の層からの出力を取り入れ、次の層に送り出すことからその名が付けられた。FFNNの構造には、情報が逆流するような「巡回 (cycles)」は存在しない。これに対して、回帰型ニューラルネットワーク (RNN)は、活性化の流れの巡回を少なくとも一つ持っている[ 37] 。RNNネットワークでは、ある項目そのものと、以前の項目を処理したときの出力の両方を使用して一連の項目を処理できるため、順序付いた項目を処理する(および将来の順序項目を予測する)ためによく使用された[ 37] 。
1979年に福島邦彦 が哺乳動物の視覚野 における神経構造モデルに基づいて提唱したネオコグニトロン [ 43] は、画像処理で広く使われる畳み込みニューラルネットワーク (CNN)の基礎を築いた[ 44] 。CNNは、大きな入力層に対して小さな層を「重ねて滑らせる」ことで、より少ない計算量でより深い処理を行うことができる。たとえば、100×100の画像には10,000個の画素があり、全結合層で処理するには10,000個の重みが必要だが、画像上をスライドする5×5の「窓」からなる畳み込み層では、わずか25個の学習可能なパラメータでエッジ検出 を行うことが可能である。畳み込み層は「プーリング層」によって結合され、「全結合層」(一般的に多層パーセプトロン )によって処理される。
回帰型ニューラルネットワーク(RNN)は、系列的な情報を処理することができるため、多くの自然言語処理(NLP)アプリケーションで利用されている。RNNは、FFNNとは異なり、同じ項目に対して、順序項目の周囲の状況に応じて異なる重みを符号化する(そして異なる出力を与える)ことができる。ということは、一度に一個の単語を解析するRNNシステムでも、「黒い犬 (black dog)」は毛むくじゃらの脚、「アメリカンドッグ (corn dog)」はケチャップ、「幻日 (sun dog)」は屈折のように、同じ「dog」から異なる連想ができる。さらに、RNNでは、以前の順序項目の情報を再帰的 に呼び出すことができるため、ずっと以前に遡って任意の項目を思い出すようにシステムを設計することができる。たとえば、「トムは黒い犬を見た」「トムはアメリカンドッグを見た」「トムは幻日を見た」という順序項目を、それぞれ「優しく」「飢えて」「間接的に」と続けることができるようになる[ 45] [ 11] 。
しかし、多層型のFFNNとRNNは優れた解を出せる一方で、どちらも勾配消失問題 に対して脆弱であることが判明した。勾配は有限精度の数値 として符号化され、モデルの全ての層にわたって逆伝播 する必要があるため、多数の層を重ねるとゼロに「消滅」、または無限大に「発散」する可能性がある。1995年-1997年にかけて、Sepp Hochreiter とJürgen Schmidhuber が初めて提案した長・短期記憶ネットワーク (LSTM)は、「入力」「出力」「忘却」ゲートを持つ複数の個別の「セル」からなる新しいアーキテクチャを導入することによって、この問題を解決しようとした[ 46] [ 47] [ 48] 。2009年に、Alex Graves チームが提出したLSTMに基づくモデルが、手書き文字認識 のICDAR コンペティションで優勝し[ 49] 、もう一つのモデルは最も正確なモデル、3番目のモデルは最も高速なモデルであった[ 50] 。
RNNやLSTMが抱えるもう一つの問題は、以前の順序項目の文脈しか考慮できないことである[ 45] [ 51] 。このため、「トムはバイクに乗って店に行き、キックスタンドを下ろしてエンジンを切った」のように、「バイク(自転車 )」が「モーターバイク(オートバイ )」であるという必要な文脈が最後でしか明らかにならない文章を解析するときに問題を引き起こすことがある。このような問題を解決する一つが双方向LSTM(bidirectional LSTM)であり、双方向に同時に進行することで、「過去」と「未来」の両方の入力特徴にアクセスすることを可能にする[ 45] 。条件付き確率場 (CRF)は、タグを使って入力と出力を直接結びつける[ 45] 。 上記のアプローチの組み合わせた、LSTM-CRFネットワークやBI-LSTM-CRFネットワークもある[ 45] 。その他に、RNNモデルの改良として、ニューラルチューリングマシン (英語版 ) 、適応計算時間(adaptive computation time)、ニューラルプログラマー(neural programmers)、アテンション機構 などがあり、最後のものはGPT-2や関連技術の基礎をなしている[ 11] 。
2010年代初頭まで、ニューラル機械翻訳で最高の性能を発揮したのは、RNNやLSTMによる「エンコーダネットワーク」が原文をベクトル に符号化し、そのベクトルを同様のアーキテクチャの「デコーダネットワーク」が処理して翻訳出力を得るという「エンコーダ・デコーダ」モデルであった[ 12] 。2014年に、非常に複雑な「アテンション 」機構が導入され、これらのモデルの性能は大幅に向上した。アテンション機構は、デコーダネットワークに、テキスト全体を単一ベクトルとして解析するのではなく、原文の特定の側面に適応的 に「アテンション(注意)」を集中させる能力を与えた[ 12] [ 13] 。
その後、2017年には、さらに一歩進んでアテンション機構を使用して、RNN/LSTMアーキテクチャを完全に置き換えた「トランスフォーマー(Transformer)」モデルが導入された[ 10] [ 11] 。
エンコーダ・デコーダモデルの制約の一つに、より大きな文章を符号化して固定長のベクトルに圧縮することの難しさがあり、入力が大きくなるにつれて性能が低下することがよく見られた。2014年、Bahdanauらは[ 12] 、「整列と翻訳を共同で行う」ことができるエンコーダ・デコーダモデルの拡張を発表した[ 13] 。Bahdanauモデルのエンコーダ(各方向に1000個の隠れユニットを持つ双方向RNN)は、翻訳された原文の各単語に対して、その文の残り全てを検索して関連する情報の位置を探した。従来のように入力文全体を固定長でベクトル化してデコーダに入力するのではなく、それらの位置と以前に生成したターゲット語を関連付けた「文脈ベクトル」を生成した[ 12] 。そして、デコーダ(これも1000個の隠れユニットを持つ)は、この文脈ベクトルを使用して、どこに「注意」を向けるかを決定した[ 12] [ 13] [ 11] 。
「アテンション」機構の探究は、Luongらによる2015年の論文で継続された[ 13] 。Bahdanau論文に基づく「グローバル」アプローチと、原語の部分集合のみを一度に「考慮」する「ローカル」アプローチが試みられ、ローカルアプローチは、アーキテクチャ的にはより複雑だが、計算量が少なく、訓練が容易であった[ 13] 。1秒間に1,000個のターゲット語を翻訳できるように特別に設計された英語-ドイツ語翻訳モデルを完全に訓練するのに7-10日を要した。その精度は、2014年のACL Workshop on Machine Translation(WMT'14)における英語-ドイツ語文ペアのタスクに対するテストで、23.0 BLEUという結果を達成した。これは、以前の試みで達成した最高結果であるBuck et al. 2014によるフレーズベースの言語モデルよりも2.1 BLEU優れていた[ 52] [ 13] 。
アテンション機構は、既存の畳み込み型ニューラルネットワーク や回帰型ニューラルネットワーク のアーキテクチャを改善するために使うことで性能向上に効果的であったが、すぐに、何も基礎を置かずにアテンション機構単独でも高性能なモデルを構築できることがわかった[ 10] 。
2017年6月、Google Brain (英語版 ) 、Google Research 、およびトロント大学 の研究者が発表した論文で、Transformer アーキテクチャが初めて紹介された[ 10] 。Transformerは、畳み込み や回帰 を完全に捨て去り、アテンション機構のみに基づいたモデルの一種である。従来のRNNに基づくモデルと異なり、Transformerは、系列的に入力される各項目について順番に計算することなく処理できるため、大規模な並列化 が可能であることを意味した[ 10] 。WMT'14フランス語-英語タスクでは、Transformerアーキテクチャを使用して特別に訓練したフランス語-英語翻訳モデルが、41.8 BLEUという新しい単一モデルのベンチマークを達成することができた[ 10] 。Transformerは、導入以来、多くの自然言語処理(NLP)アプリケーションで使用されている[ 53] 。
GPTモデルの模式図
2018年6月11日、OpenAIは「Improving Language Understanding by Generative Pre-Training」(生成的事前学習による言語理解の向上)と題する論文を発表し、その中で「Generative Pre-trained Transformer(GPT) 」と呼ぶNLPモデルを紹介した[ 9] 。この当時、最高性能を発揮するニューラルNLPモデルでは、主に手作業でラベル付けされた大量のデータを用いて、教師あり学習 を採用していた。こうした教師あり学習への依存によって、ラベル付けが十分でないデータセットでの利用は制限を受け、さらに非常に大規模なモデルを訓練するには非常に高価かつ時間もかかっていた[ 9] [ 56] 。スワヒリ語 やハイチ・クレオール語 などの多くの言語は、コーパス構築のためのテキストが不足しているため、このようなモデルを用いて翻訳や通訳することは困難であった[ 56] 。これに対して、GPTの「半教師付き」アプローチは、言語モデリングの目的に基づいて初期パラメータを設定する教師なし生成的 「事前学習」段階と、これらのパラメータを標的タスクに適応させる教師あり識別的 「微調整」段階の2段階に分けて行われた[ 9] 。
アテンション強化RNNを含む従来の技術とは異なり、Transformerアーキテクチャを用いたGPTには、より構造化された記憶が備わり、それによって「多様なタスクに対応できる頑健な転移 性能」が実現された[ 9] 。
転移時には、トラバース形式の手法から派生したタスク固有の入力適応を利用し、構造化テキストの入力を単一の連続したトークン列として処理する。[ 9]
教師なし事前学習は、さまざまなジャンルに属する7,000冊以上の未発表小説のデータセット「BooksCorpus」を用いて行われた[ 57] 。このデータセットが選ばれた理由の一つは、長距離の情報を処理するためのモデルの条件として、連続した長い文章が求められたことにある。利用可能な他のデータセットは、規模は大きくても、このような長範囲的な構造がない(文レベルで「入れ替え」られている)ことを理由に却下された[ 9] 。BooksCorpusのテキストをクリーニング(句読点や空白の標準化)するためにftfy ライブラリが、トークン化 ではspaCy が使われた[ 9] 。
GPTのアーキテクチャ自体は、12層のデコーダのみのTransformerで、それぞれ64次元の状態を持つ12個のマスク付き自己アテンション・ヘッド(合計768個)を使用した。単純な確率的勾配降下法 ではなく、Adam最適化アルゴリズム が使用された。学習率は、最初の2,000回の更新では、0から最大2.5×10−4 まで線形に増加し、コサインスケジュールによって0までアニリーング された[ 9] 。
512個の連続したトークンからなるランダムにサンプリングした64個のミニバッチの訓練を100エポック行う。レイヤーノルムはモデル全体で広く用われているため、N(0,0.02)の単純な重みの初期化で十分であった。40,000個のバイト対符号化 (BPE)語彙のマージと、正則化 には残差、埋め込み、アテンションのドロップアウトを比率0.1で行った。また、Loshchilov et al. 2017で提案されたL2正則化の修正版を採用し、すべての非バイアスウェイトやゲインウェイトはw=0.01とした。
(中略)
原著で提案された正弦波バージョンの代わりに学習された位置埋め込みを使用した。
(中略)
特に指定がない限り、教師なし事前学習でのハイパーパラメータ設定を再利用する。分類器にはドロップアウトを比率0.1で追加する。ほとんどのタスクでは、学習速度6.25e-5 、バッチサイズ32を使用する。このモデルは高速に微調整され、ほとんどの場合は3エポックの訓練で十分であった。学習率は線形減衰スケジュールを用い、ウォームアップは訓練の0.2%以上とした。λは0.5とした[ 9] 。
GPTは、微調整の段階で特定のタスクに適応させたが、事前学習の段階はそうしなかった。さまざまなタスクを実行するために、タスクに依存しない基礎となるモデルアーキテクチャに最小限の変更が加えられた[ 9] 。それにもかかわらず、GPTはいくつかの言語処理タスクにおいて過去のベンチマークを上回り、多くの多様なタスクにおいて、タスク指向のアーキテクチャを持つ識別的に訓練されたモデルより優れていた[ 9] 。
自然言語推論(テキスト含意推論 (英語版 ) (textual entailment)とも呼ばれる)タスクでは、モデルの評価は、さまざまなデータセットに含まれる文の対を解釈し、それらの関係を「含意」「矛盾」「中立」に分類する能力に基づいて行われる[ 9] 。たとえば、QNLI(Wikipedia の記事)やMultiNLI(速記、大衆小説、政府報告など)といった情報源に対して[ 58] 、GPTは従来の最高値からそれぞれ5.8%、1.5%優れていた[ 9] 。同様に、質問応答や常識推論 (英語版 ) に関連する2つのタスクでも、RACE(中学校と高校の筆記試験の問題と解答の組からなるデータセット)で5.7%[ 59] 、クローズ・テスト (英語版 ) で8.9%、従来のモデルをそれぞれ上回った[ 60] 。
もう一つの意味的類似性(または言い換え検出)のタスクでは、2つの文が互いに言い換えであるかどうかをモデルが予測できるかどうかを評価するもので、Quora Question Pairs(QQP)データセットで、GPTは従来の最高性能モデルよりも4.2%向上した[ 9] 。また、Corpus of Linguistic Acceptability(CoLA)を用いたテキスト分類タスクでは、従来の最高スコア35.0に対してGPTはスコア45.4を達成した。最後に、マルチタスクテストのGLUEで[ 61] 、GPTは総合スコア72.8(従来は68.9)を達成した[ 9] 。
GPT-2はGPTのスケールアップ版として作成され、パラメータ数とデータセットサイズをいずれも10倍にしている[ 8] [ 9] [ 4] 。双方とも教師なし のTransformer モデルで、一連のトークン の並びから次の単語を予測してテキストを生成するように訓練された。GPT-2モデルは15億のパラメータを持ち、800万のウェブページのデータセット で訓練が行われた[ 8] 。GPT-2は、テキストサンプル中の一連の単語を解釈し、最も可能性の高い次の単語を予測するという非常に単純な基準で強化され、追加される単語を予測し続けることで完全な文や段落を生成し、自然言語 で完全に理解できる(そして意味論 的に意味を持つ)文を生成する[ 8] 。特に、GPT-2は、ゼロショット設定 (英語版 ) でのタスクに対する性能で評価された。
GPT-2は新規に開発された WebText コーパスをデータセットとして利用している。
WebText コーパスは約800万のウェブページ から抽出された高品質自然言語テキストコーパスである[ 62] 。
GPT-2はゼロショット推論可能な基盤モデルを意図して開発された。個別タスクを明示的に学習せずゼロショットで推論するには、学習用テキスト内に様々なタスクの具体例が(タスクラベル無しで)含まれている必要があると考えられる[ 63] 。一方で質の低いテキストはモデルの精度を落とすため[ 64] 、コモン・クロール のような無作為収集されたコーパスは利用できない[ 65] 。これらの問題を解決するためにGPT-2論文で開発されたコーパスが WebText コーパスである。
WebText は人間によるキュレーションを品質向上に利用している[ 66] 。まずReddit で3回以上賛成票 を受けたリンク先ウェブページを一定品質のテキストとみなし[ 67] 、重複文章の除去・Wikipedia記事の削除[ 68] ・ヒューリスティックによるクリーニングを経て、最終的に約800万のウェブページから抽出された約40GBの自然言語テキストをWebTextとしている[ 69] 。
GPT-2のモデルアーキテクチャはGPT-1 のマイナーチェンジ版である。アーキテクチャ上の変更点は以下の通り:
Post LN → Pre LN[ 70]
最終アテンション ブロック後の追加LN[ 71]
残差レイヤーの深度
1
/
N
{\displaystyle 1/{\sqrt {N}}}
重み付け初期化[ 72]
アーキテクチャはほぼ同一であるが、GPT-2はGPT-1より大きなモデルとなっている。モデル上の変更点は以下の通り:
モデルパラメータサイズ: 15億(約13倍)[ 55]
ボキャブラリ: 50,257[ 73]
コンテキストトークン長: 512→1024[ 74]
モデルと同じく学習もスケールされており、バッチサイズは512に変更されている[ 75] 。
GPT-2の訓練費用は1時間あたり256ドルであることが知られているが[ 76] [ 77] 、訓練に要した総時間は不明なため、訓練費用の総額を正確に見積もることはできない[ 78] 。しかし、Transformerアーキテクチャを用いた同等の大規模言語モデルでの費用はより詳細に記述されており、BERT とXLNet の訓練過程では、それぞれ6,912ドルと245,000ドルの資源を消費した[ 77] 。
GPT-2が作成した、2020年の米国大統領選挙 に勝利した後のエドワード・スノーデン の行動に関する架空のニュース記事。強調表示されたテキストはすべて機械が生成したものである。スノーデンは(生成時点で)公職に選出されたことはなかったが、生成されたサンプルは文法的にも文体的にも妥当なものである。
GPT-2は、そのデータセットとアプローチの広さによって、単純なテキスト生成にとどまらない幅広いタスクに対応できるようになった。質問に答えたり、長文を要約したり、さまざまな特定領域 (英語版 ) で言語間の翻訳 をしたり、一連の単語の次の予測方法以上のことは何も指示されずに実行できる[ 79] [ 80] 。
一般化学習の一例は、フランス語-英語間の機械翻訳をするGPT-2の能力であり、そのために、WMT-14の翻訳タスクを使用してGPT-2の性能が評価された。GPT-2の訓練用コーパスには、フランス語のテキストはほとんど含まれていなかった。訓練前にデータセットのクリーニングで英語以外のテキストを意図的に削除したため、得られた40,000 MBのうちモデルが訓練に使用できたフランス語は10 MBにすぎなかった(ほとんどは英語の投稿や記事に含まれた外国語の引用)[ 8] 。それでもGPT-2は、WMT-14の英語-フランス語間テストセットで5 BLEUを達成した(単語単位での置換による翻訳をわずかに下回るスコア)。また、フランス語から英語へのテストセットでGPT-2は、当時(2017年)の教師なし機械翻訳ベースラインを上回って、11.5 BLEUを達成した。これは、33.5 BLEUを達成した当時(2019年)最も高性能な教師なし手法を下回るものだった[ 8] 。しかし、他のモデルは、この結果を達成するために大量のフランス語テキストを使用しており、一方のGPT-2は、同等の手法の約1/500のサイズの単一言語フランス語コーパスを使用したと推定された[ 8] 。
GPT-2は、2019年2月14日に初めて発表された。2019年2月のThe Verge に掲載されたJames Vincentによる記事では、『(このプログラムが)作り出す文章は、通常、人間ではないと容易に判別できる』ものの、言語生成プログラムの『これまでで、もっともわくわくする例の一つ』であることに変わりはないと述べている[ 79] 。
偽の見出しを付けると、あとは偽の引用や統計を交えた残りを書いてくれる。短編小説の最初の行を入力すると、登場人物に次に何が起こるか教えてくれる。適切なプロンプト (命令)を入力すれば、ファン・フィクション だって書ける[ 79] 。
ガーディアン 紙はこの出力を『もっともらしい新聞の散文』と表現し[ 7] 、Vox のKelsey Piper は『私がこれまで見た中で最もクールなAIシステムの一つは、私を失業に追い込むものかもしれない』と述べている[ 80] 。GPT-2の柔軟性は、The Vergeによれば『印象的』と評され、具体的には、言語間でのテキスト翻訳、長文の記事の要約、雑学的な質問へ回答などの能力が注目された[ 79] 。
修正チューリングテストを用いたアムステルダム大学 の研究では、少なくともいくつかのシナリオで、参加者はGPT-2が生成した詩と人間が書いた詩を見分けられないことが分かった[ 81] 。
「Skub」は実在する製品ではないが、DistilGPT2で使用されている縮小サイズのモデルでさえ、賛成と反対の両側からもっともらしい議論を作り出すことができる。
これまでOpenAIのモデルはすぐに一般公開されていたが、2019年2月の発表では、悪用される危険性があるとして[ 7] 、GPT-2のソースコード の公開を当初拒否していた[ 7] 。発表時には、一部の報道関係者にのみ、モデルへの制限付きアクセス(ソースコード自体ではなく、入力でき、出力を提供するインターフェース)が許可された。よく言われるのは、生成されたテキストは通常まったく新しいものなので、スパマー (英語版 ) が自動フィルター を回避するために悪用する可能性があるという正当化の理由である。OpenAIは、GPT-2を微調整して『肯定的または否定的な製品レビューを永遠に生成する』バージョンを実演した[ 7] 。もう一つの問題は、GPT-2を使用すると、わいせつ あるいは人種差別 的なテキストが生成される可能性があることである。ジェレミー・ハワードなどの研究者は、『この技術は、Twitterや電子メール、そしてウェブを、合理的な響きを持って文脈に沿った散文で完全に埋め尽し、他のすべての発言をかき消すようなものであり、フィルタリングは不可能になる』と警告した[ 79] 。アレン人工知能研究所 (英語版 ) は、GPT-2に呼応して「ニューラルフェイクニュース 」を検出するツールを発表した[ 82] 。
しかし、意見は分かれた。2019年2月のThe Verge の記事は、GPT-2がもたらす脅威は誇張されていると論じ[ 83] 、カリフォルニア工科大学 の教授でNvidia の機械学習研究ディレクターであるAnima Anandkumar は、OpenAIが言うような脅威をもたらす能力がGPT-2にあるという証拠はなく、彼らがしたことは『オープンとは正反対』だと述べ、完全モデルの公開を拒否したことを「悪意のあるたわごと (英語版 ) 」とみなした[ 83] 。The Gradient 紙は、OpenAIに対してモデルの公開を促す公開書簡を発表し、テキスト生成AIがもたらす脅威を印刷機 のそれと比較し、『混乱をもたらす可能性があったにものの、(幸いにも)現代社会を破壊しなかった技術』としてPhotoshop を例に挙げた[ 84] 。
30年後、Photoshopは高校生が使えるほど簡単で、動詞として広く使われているにもかかわらず、社会は比較的無事ですんでいる。なぜか?それは、誰もがPhotoshopを知っているからこそである[ 84] 。
OpenAIは、完全な学習済みモデルや、訓練用コーパスを公開しなかったが、過去の出版物におけるその手法の説明(および基礎となる技術の無償での入手性)により、GPT-2はフリーソフトウェア として他者が複製することが可能であった。そのような複製の一つ、OpenGPT-2は、OpenWebTextと呼ばれる自由ライセンス版のWebTextと組み合わせて2019年8月に公開された。OpenGPT-2のクラウドコンピューティング費用は約50,000ドルと提示された[ 85] 。
2019年8月20日、OpenAIは、7億7,400万のパラメータ(15億パラメータの完全モデルの約半分の規模)を持つGPT-2の縮小版を公開した[ 2] 。
しかし、GPT-2が広範な悪用につながるのではないかという当初の懸念は、現実のものとならなかった。The Vergeは、『AI技術がある種の「情報世紀末(infopocalypse )」をもたらすという主張には懐疑的な理由がある。まず第一に、わずかなコストでもっともらしい文章を大量に生成できるプログラム、すなわち人間が既に存在している。』 と述べている[ 86] 。2019年11月までに、OpenAIは『これまでのところ悪用された強い証拠は見られない』と述べ、2019年11月5日に15億のパラメータを持つ完全版を公開した[ 3] [ 14] 。
GPT-2は、さまざまなシナリオに対してテーマに沿ったテキストを生成することができる。たとえば、ドナルド・トランプ がアニメ キャラクターの惣流・アスカ・ラングレー を賞賛する演説をしたというCNN の記事のような非現実的なものでさえ生成することができる。ここでは、1.5Bの完全モデルであっても、第2段落では文法の劣化が始まり、最終的には意味不明な一文が何度も繰り返される出力など、出力が長くなるにつれて無意味で反復的なテキストを生成する傾向が見られる。
GPT-2の自然言語テキストの生成能力は、おおむね高く評価されているが、特に段落数が2段を超える長いテキストを生成する場合には、その欠点も指摘されている。Vox は『散文はかなり大まかで、ときおり非合理的なこともあり、記事が長くなればなるほど一貫性が失われる』と述べている[ 80] 。The Verge も同様に、GPT-2の文章は長いサンプルになると『話題がそれる』傾向があり、首尾一貫性に欠けると指摘した[ 79] 。The Register (英語版 ) は、『それを読んだ人間は、しばらくすると、何かが起きていることに気づくはずだ』と評し、『GPT-2は、情報を抽出し取りだすためにアルゴリズムに依存する他のシステムと同様、質問には答えていない』と述べている[ 76] 。
GPT-2を導入するには多くの資源が必要で、完全版モデルの大きさは5ギガバイト を超えるため、アプリケーションにローカルに組み込むことが難しく、また大量のメモリー(RAM) を消費する。また、1回の予測を行うと『CPU を100%の使用率で数分間占有することがある』ほか、GPU 処理でも『1回の予測に数秒かかることがある』[ 6] 。これらの問題を軽減するために、Hugging Face は、知識蒸留 を使用して、『いくつかの品質ベンチマークで数ポイント低い』ものの、『33%小さく、2倍速い』という小型モデルを作成するDistilGPT2を開発した[ 6] 。
ジャーナリストによって報じられたGPT-2の応用として、ニュース記事などの文章を人間が書くことを補助するなどが挙げられている[ 7] 。GPT-2は、製品版の公開以前から、さまざまなアプリケーションやサービス、それにエンターテインメントに利用されていた。2019年6月にはReddit サイト内に、r/SubSimulatorGPT2というコミュニティ(サブレディット )が作られ、さまざまなサブレディットで訓練したGPT-2の実例(インスタンス )が投稿し、互いのコメントに返信することで『r/Bitcoinが擬人化したAIと、r/ShittyFoodPornの機械学習に由来する霊が議論する』状況が作られた[ 86] 。同年7月までに、GPT-2に基づいて、さまざまなプログラミング言語 のコード行を自動補完 するソフトウェアが公開され、ユーザーから「ゲームチェンジャー(トレンドを変えるできごと)」と評された[ 87] 。
2019年には、GPT-2を利用し、ユーザーの入力に基づいて動的なテキストアドベンチャー を提供するAI Dungeon (英語版 ) が発表された[ 88] 。2021年現在、AI Dungeonは、オプションの有料アップグレードとしてGPT-3の最大リリースAPIへのアクセスを提供し、無料版ではGPT-3の2番目に大きなリリースを使用した[ 89] 。AI Dungeonを中心に設立されたLatitudeは、2021年に開業資金 (英語版 ) 330万ドルを調達した[ 90] 。いくつかのウェブサイトでは、GPT-2やその他のTransformerモデルのさまざまなインスタンスの対話的なデモンストレーションを公開している[ 91] [ 92] [ 93] 。
2021年2月、問題を抱えたティーンエージャー向けの危機管理センターが、カウンセラーが十代の模擬患者と会話をしてトレーニングするために、GPT-2由来のチャットボットの使用を始めると発表した(この使用は純粋に内部目的であり、GPT-2はティーンエージャー自身と交信しなかった)[ 94] 。
^ Piper, Kelsey (15 May 2019). “A poetry-writing AI has just been unveiled. It's ... pretty good. ”. Vox . 7 November 2020時点のオリジナルよりアーカイブ 。19 December 2020 閲覧。
^ a b Johnson, Khari (20 August 2019). “OpenAI releases curtailed version of GPT-2 language model ”. VentureBeat . 18 December 2020時点のオリジナルよりアーカイブ 。19 December 2020 閲覧。
^ a b Vincent, James (7 November 2019). “OpenAI has published the text-generating AI it said was too dangerous to share ”. The Verge . 11 June 2020時点のオリジナルよりアーカイブ 。19 December 2020 閲覧。
^ a b c “Better Language Models and Their Implications ”. OpenAI (14 February 2019). 19 December 2020時点のオリジナルよりアーカイブ 。19 December 2020 閲覧。
^ a b Hegde, Chaitra; Patil, Shrikumar (9 June 2020). "Unsupervised Paraphrase Generation using Pre-trained Language Models". arXiv :2006.05477 [cs.CL ]。
^ a b c Kaiser, Caleb (31 January 2020). “Too big to deploy: How GPT-2 is breaking servers ”. Towards Data Science . 15 February 2020時点のオリジナルよりアーカイブ 。27 February 2021 閲覧。
^ a b c d e f Hern, Alex (14 February 2019). “New AI fake text generator may be too dangerous to release, say creators ”. The Guardian . 14 February 2019時点のオリジナルよりアーカイブ 。19 December 2020 閲覧。
^ a b c d e f g Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilua (14 February 2019). Language models are unsupervised multitask learners . 1 . オリジナル の6 February 2021時点におけるアーカイブ。. https://web.archive.org/web/20210206183945/https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf 19 December 2020 閲覧。 .
^ a b c d e f g h i j k l m n o p q r s “Improving Language Understanding by Generative Pre-Training ”. OpenAI . pp. 12 (11 June 2018). 26 January 2021時点のオリジナルよりアーカイブ 。23 January 2021 閲覧。
^ a b c d e f Polosukhin, Illia; Kaiser, Lukasz; Gomez, Aidan N.; Jones, Llion; Uszkoreit, Jakob; Parmar, Niki; Shazeer, Noam; Vaswani, Ashish (12 June 2017). "Attention Is All You Need". arXiv :1706.03762 [cs.CL ]。
^ a b c d e Olah, Chris; Carter, Shan (8 September 2016). “Attention and Augmented Recurrent Neural Networks” . Distill 1 (9). doi :10.23915/distill.00001 . オリジナル の22 December 2020時点におけるアーカイブ。. https://web.archive.org/web/20201222104024/https://distill.pub/2016/augmented-rnns/ 22 January 2021 閲覧。 .
^ a b c d e f Bahdanau, Dzmitry; Cho, Kyunghyun; Bengio, Yoshua (1 September 2014). "Neural Machine Translation by Jointly Learning to Align and Translate". arXiv :1409.0473 [cs.CL ]。
^ a b c d e f g Luong, Minh-Thang; Pham, Hieu; Manning, Christopher D. (17 August 2015). "Effective Approaches to Attention-based Neural Machine Translation". arXiv :1508.04025 [cs.CL ]。
^ a b “GPT-2: 1.5B Release ” (英語). OpenAI (2019年11月5日). 2019年11月14日時点のオリジナルよりアーカイブ 。2019年11月14日 閲覧。
^ Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav; Sastry, Girish; Askell, Amanda; Agarwal, Sandhini; Herbert-Voss, Ariel; Krueger, Gretchen; Henighan, Tom; Child, Rewon; Ramesh, Aditya; Ziegler, Daniel M.; Wu, Jeffrey; Winter, Clemens; Hesse, Christopher; Chen, Mark; Sigler, Eric; Litwin, Mateusz; Gray, Scott; Chess, Benjamin; Clark, Jack; Berner, Christopher; McCandlish, Sam; Radford, Alec; Sutskever, Ilya; Amodei, Dario (22 July 2020). "Language Models are Few-Shot Learners". arXiv :2005.14165 [cs.CL ]。
^ Arram (July 9, 2020). “GPT-3: An AI that's eerily good at writing almost anything ”. Arram Sabeti . July 20, 2020時点のオリジナルよりアーカイブ 。July 31, 2020 閲覧。
^ Hao, Karen (September 23, 2020). “OpenAI is giving Microsoft exclusive access to its GPT-3 language model” (英語). MIT Technology Review . https://www.technologyreview.com/2020/09/23/1008729/openai-is-giving-microsoft-exclusive-access-to-its-gpt-3-language-model/ 2020年9月25日 閲覧 . ""The companies say OpenAI will continue to offer its public-facing API, which allows chosen users to send text to GPT-3 or OpenAI’s other models and receive its output. Only Microsoft, however, will have access to GPT-3’s underlying code, allowing it to embed, repurpose, and modify the model as it pleases.""
^ Turing, Alan (October 1950), "Computing Machinery and Intelligence", Mind , LIX (236): 433–460, doi :10.1093/mind/LIX.236.433 , ISSN 0026-4423 。
^ Samuel, Arthur (1959). “Some Studies in Machine Learning Using the Game of Checkers”. IBM Journal of Research and Development 3 (3): 210–229. doi :10.1147/rd.33.0210 .
^ a b c Hancox, P.J. (26 January 1996). “SEM1A5 – Part 1 – A brief history of NLP ”. University of Birmingham. 13 January 2021時点のオリジナルよりアーカイブ 。12 January 2021 閲覧。
^ a b Nye, Mary Jo (2016). “Speaking in Tongues: Science's centuries-long hunt for a common language” . Distillations 2 (1): 40–43. オリジナル の3 August 2020時点におけるアーカイブ。. https://web.archive.org/web/20200803130801/https://www.sciencehistory.org/distillations/magazine/speaking-in-tongues 22 March 2018 閲覧。 .
^ Gordin, Michael D. (2015). Scientific Babel: How Science Was Done Before and After Global English . Chicago, Illinois: University of Chicago Press. ISBN 9780226000299
^ John Hutchins. The first public demonstration of machine translation: the Georgetown-IBM system, 7th January 1954 (PDF) (Report). S2CID 132677 。
^ Reifler, Erwin (February 2–5, 1960). “The solution of MT linguistic problems through lexicography.”. Proceedings of the National Symposium on Machine Translation .
^ Hutchins, John (1997). “From first conception to first demonstration: the nascent years of machine translation, 1947–1954. A chronology.”. Machine Translation 12, 195–252 12 (3): 195–252. doi :10.1023/A:1007969630568 .
^ Winograd, Terry (1971-01-01) (英語). Procedures as a Representation for Data in a Computer Program for Understanding Natural Language . hdl :1721.1/7095 . オリジナル の2021-01-13時点におけるアーカイブ。. https://web.archive.org/web/20210113121007/https://dspace.mit.edu/handle/1721.1/7095 2021年1月12日 閲覧。 .
^ “SHRDLU ”. Stanford Human-Computer Interaction (HCI) Group . 2020年8月16日時点のオリジナルよりアーカイブ 。2021年1月12日 閲覧。
^ Weizenbaum, Joseph (January 1966), “ELIZA – A Computer Program For the Study of Natural Language Communication Between Man And Machine”, Communications of the ACM 9 (1): 36–45, doi :10.1145/365153.365168
^ Bassett, Caroline (2019). “The computational therapeutic: exploring Weizenbaum's ELIZA as a history of the present”. AI & Society 34 (4): 803–812. doi :10.1007/s00146-018-0825-9 .
^ Hancox, P.J. (26 January 1996). “SEM1A5 – Part 1 – The state-of-the-art ”. University of Birmingham. 16 January 2021時点のオリジナルよりアーカイブ 。12 January 2021 閲覧。
^ Howe, J. (November 1994). “Artificial Intelligence at Edinburgh University : a Perspective ”. 17 August 2007時点のオリジナルよりアーカイブ 。30 August 2007 閲覧。 “Lighthill's [1973] report provoked a massive loss of confidence in AI by the academic establishment in the UK (and to a lesser extent in the US). It persisted for a decade ― the so-called 'AI Winter'”
^ a b Russell, Stuart J. ; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, p. 24, ISBN 0-13-790395-2 , オリジナル の2011-02-28時点におけるアーカイブ。, https://web.archive.org/web/20110228023805/http://aima.cs.berkeley.edu/ 2021年1月12日 閲覧 , ""Overall, the AI industry boomed from a few million dollars in 1980 to billions of dollars in 1988. Soon after that came a period called the 'AI Winter'""
^
Rosenblatt, Frank (1957). “The Perceptron—a perceiving and recognizing automaton”. Report 85-460-1 (Cornell Aeronautical Laboratory).
^ Bishop, Christopher M. (2006). Pattern Recognition and Machine Learning . Springer. ISBN 0-387-31073-8
^ a b Olazaran, Mikel (1996). “A Sociological Study of the Official History of the Perceptrons Controversy”. Social Studies of Science 26 (3): 611–659. doi :10.1177/030631296026003005 . JSTOR 285702 .
^ Minsky, Marvin; Papert, Seymour (1969), Perceptrons: An Introduction to Computational Geometry , MIT Press, ISBN 0-262-63022-2
^ a b c d Wilson, Bill (24 June 2012). “The Machine Learning Dictionary ”. www.cse.unsw.edu.au . 26 August 2018時点のオリジナル よりアーカイブ。19 January 2021 閲覧。
^ a b Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). “6.5 Back-Propagation and Other Differentiation Algorithms” . Deep Learning . MIT Press. pp. 200–220. ISBN 9780262035613 . オリジナル の2018-01-27時点におけるアーカイブ。. https://web.archive.org/web/20180127104809/http://www.deeplearningbook.org/ 2021年3月14日 閲覧。
^ Werbos, Paul J. (1994). The Roots of Backpropagation : From Ordered Derivatives to Neural Networks and Political Forecasting . New York: John Wiley & Sons. ISBN 0-471-59897-6
^ Crevier, Daniel [in 英語] (1993), AI: The Tumultuous Search for Artificial Intelligence , New York, NY: BasicBooks, ISBN 0-465-02997-3 。
^ Parker, D.B. (1985). Learning Logic . Cambridge MA: Massachusetts Institute of Technology.
^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (1986a). “Learning representations by back-propagating errors”. Nature 323 (6088): 533–536. Bibcode : 1986Natur.323..533R . doi :10.1038/323533a0 .
^ Fukushima, Kunihiko「位置ずれに影響されないパターン認識機構の神経回路のモデル --- ネオコグニトロン --- 」『Trans. IECE』J62-A第10号、October 1979、658–665頁、 オリジナル の2021年1月28日時点におけるアーカイブ、2021年1月20日 閲覧 。
^ LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). “Deep learning”. Nature 521 (7553): 436–444. Bibcode : 2015Natur.521..436L . doi :10.1038/nature14539 . PMID 26017442 .
^ a b c d e Bajpai, Akash (23 February 2019). “Recurrent Neural Networks: Deep Learning for NLP ”. Towards Data Science . 19 January 2021 閲覧。
^ ゼップ・ホッフライター; ユルゲン・シュミットフーバー (1995年8月21日), Long Short Term Memory , ftp://ftp.idsia.ch/pub/juergen/fki-207-95.ps.gz , Wikidata Q98967430
^ ゼップ・ホッフライター; ユルゲン・シュミットフーバー (1997年), “LSTM can Solve Hard Long Time Lag Problems” (英語), Advances in Neural Information Processing Systems 9 , Advances in Neural Information Processing Systems, https://papers.nips.cc/paper/1215-lstm-can-solve-hard-long-time-lag-problems.pdf , Wikidata Q77698282
^ Sepp Hochreiter ; Jürgen Schmidhuber (1997). “Long short-term memory” . Neural Computation 9 (8): 1735–1780. doi :10.1162/neco.1997.9.8.1735 . PMID 9377276 . オリジナル の2021-01-22時点におけるアーカイブ。. https://web.archive.org/web/20210122144703/https://www.researchgate.net/publication/13853244_Long_Short-term_Memory 2021年1月20日 閲覧。 .
^ Graves, A.; Liwicki, M.; Fernández, S.; Bertolami, R.; Bunke, H.; Schmidhuber, J. (May 2009). “A Novel Connectionist System for Unconstrained Handwriting Recognition”. IEEE Transactions on Pattern Analysis and Machine Intelligence 31 (5): 855–868. doi :10.1109/tpami.2008.137 . ISSN 0162-8828 . PMID 19299860 .
^ Märgner, Volker; Abed, Haikal El (July 2009). “ICDAR 2009 Arabic Handwriting Recognition Competition”. 2009 10th International Conference on Document Analysis and Recognition : 1383–1387. doi :10.1109/ICDAR.2009.256 . ISBN 978-1-4244-4500-4 .
^ Olah, Chris (27 August 2015). “Understanding LSTM Networks ”. 1 August 2017時点のオリジナルよりアーカイブ 。22 January 2021 閲覧。
^ “N-gram Counts and Language Models from the Common Crawl ”. pp. 3579–3584 (May 2014). 28 January 2021時点のオリジナルよりアーカイブ 。22 January 2021 閲覧。
^ Wolf, Thomas; Debut, Lysandre; Sanh, Victor; Chaumond, Julien; Delangue, Clement; Moi, Anthony; Cistac, Pierric; Rault, Tim et al. (2020). “Transformers: State-of-the-Art Natural Language Processing”. Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations . pp. 38–45. doi :10.18653/v1/2020.emnlp-demos.6
^ Zhu, Yukun; Kiros, Ryan; Zemel, Rich; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja (2015). Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books . pp. 19–27. arXiv :1506.06724 . https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Zhu_Aligning_Books_and_ICCV_2015_paper.html .
^ a b "Our largest model, GPT-2, is a 1.5B parameter Transformer" Radford. (2019)
^ a b Tsvetkov, Yulia (22 June 2017). “Opportunities and Challenges in Working with Low-Resource Languages ”. Carnegie Mellon University. 31 March 2020時点のオリジナルよりアーカイブ 。23 January 2021 閲覧。
^ Zhu, Yukun; Kiros, Ryan; Zemel, Richard; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja (22 June 2015). "Aligning Books and Movies: Towards Story-like Visual Explanations by Watching Movies and Reading Books". arXiv :1506.06724 [cs.CV ]. # of books: 11,038 / # of sentences: 74,004,228 / # of words: 984,846,357 / mean # of words per sentence: 13 / median # of words per sentence: 11
^ “A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference ”. Association for Computational Linguistics (1 June 2018). 11 February 2020時点のオリジナルよりアーカイブ 。23 January 2021 閲覧。 “At 433k examples, this resource is one of the largest corpora available for natural language inference (a.k.a. recognizing textual entailment), [...] offering data from ten distinct genres of written and spoken English [...] while supplying an explicit setting for evaluating cross-genre domain adaptation.”
^ Lai, Guokun; Xie, Qizhe; Hanxiao, Liu; Yang, Yiming; Hovy, Eduard (15 April 2017). "RACE: Large-scale ReAding Comprehension Dataset From Examinations". arXiv :1704.04683 [cs.CL ]。
^ “LSDSem 2017 Shared Task: The Story Cloze Test ”. Association for Computational Linguistics (3 April 2017). 22 November 2020時点のオリジナルよりアーカイブ 。23 January 2021 閲覧。 “The LSDSem’17 shared task is the Story Cloze Test, a new evaluation for story understanding and script learning. This test provides a system with a four-sentence story and two possible endings, and the system must choose the correct ending to the story. Successful narrative understanding (getting closer to human performance of 100%) requires systems to link various levels of semantics to commonsense knowledge.”
^ Wang, Alex; Singh, Amanpreet; Michael, Julian; Hill, Felix; Levy, Omar; Bowman, Samuel R. (20 April 2018). "GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding". arXiv :1804.07461 [cs.CL ]。
^ "a new dataset of millions of webpages called WebText ... which emphasizes document quality." Radford. (2019). Language Models are Unsupervised Multitask Learners .
^ "Our approach motivates building as large and diverse a dataset as possible in order to collect natural language demonstrations of tasks in as varied of domains and contexts as possible." Radford. (2019)
^ Trinh, Trieu H.; Le, Quoc V. (7 June 2018). "A Simple Method for Commonsense Reasoning". arXiv :1806.02847 [cs.CL ]。
^ "Common Crawl ... they have significant data quality issues ... We observed similar data issues in our initial experiments with Common Crawl." Radford. (2019)
^ "emphasizes document quality. To do this we only scraped web pages which have been curated/filtered by humans." Radford. (2019)
^ "we scraped all outbound links from Reddit, a social media platform, which received at least 3 karma." Radford. (2019)
^ 他の多くのデータセットに含まれているので、過剰適合 の原因となる可能性があった
^ "a preliminary version of WebText ... which ... contains slightly over 8 million documents for a total of 40 GB of text." Radford. (2019)
^ "Layer normalization ... was moved to the input of each sub-block" Radford. (2019)
^ "an additional layer normalization was added after the final self-attention block." Radford. (2019)
^ "A modified initialization which accounts for the accumulation on the residual path with model depth ... scale the weights of residual layers at initialization by a factor of 1/√N where N is the number of residual layers." Radford. (2019)
^ "The vocabulary is expanded to 50,257." Radford. (2019)
^ "We also increase the context size from 512 to 1024 tokens" Radford. (2019)
^ "a larger batchsize of 512 is used." Radford. (2019)
^ a b Quach, Katyanna (14 February 2019). “Roses are red, this is sublime: We fed OpenAI's latest chat bot a classic Reg headline ”. The Register . 9 March 2021時点のオリジナルよりアーカイブ 。27 February 2021 閲覧。
^ a b “The Staggering Cost of Training SOTA AI Models ”. Synced (27 June 2019). 24 November 2020時点のオリジナルよりアーカイブ 。27 February 2021 閲覧。
^ Wiggers, Kyle (23 March 2020). “Google open-sources framework that reduces AI training costs by up to 80% ”. VentureBeat . 26 November 2020時点のオリジナルよりアーカイブ 。27 February 2021 閲覧。
^ a b c d e f Vincent, James (14 February 2019). “OpenAI's new multitalented AI writes, translates, and slanders ”. The Verge . 18 December 2020時点のオリジナルよりアーカイブ 。19 December 2020 閲覧。
^ a b c Piper, Kelsey (14 February 2019). “An AI helped us write this article ”. Vox . 8 November 2020時点のオリジナルよりアーカイブ 。19 December 2020 閲覧。
^ Köbis, Nils; Mossink, Luca D. (1 January 2021). “Artificial intelligence versus Maya Angelou: Experimental evidence that people cannot differentiate AI-generated from human-written poetry”. Computers in Human Behavior 114 : 106553. doi :10.1016/j.chb.2020.106553 .
^ Schwartz, Oscar (4 July 2019). “Could 'fake text' be the next global political threat?” . The Guardian . オリジナル の16 July 2019時点におけるアーカイブ。. https://web.archive.org/web/20190716035703/https://www.theguardian.com/technology/2019/jul/04/ai-fake-text-gpt-2-concerns-false-information 16 July 2019 閲覧。
^ a b Vincent, James (21 February 2019). “AI researchers debate the ethics of sharing potentially harmful programs ”. The Verge. 9 February 2021時点のオリジナルよりアーカイブ 。27 February 2021 閲覧。
^ a b Zhang, Hugh (19 February 2019). “OpenAI: Please Open Source Your Language Model ”. The Gradient. 28 January 2021時点のオリジナルよりアーカイブ 。28 February 2021 閲覧。
^ “OpenGPT-2: We Replicated GPT-2 Because You Can Too ”. Noteworthy (22 August 2019). 27 February 2021 閲覧。
^ a b Vincent, James (6 June 2019). “There's a subreddit populated entirely by AI personifications of other subreddits ”. The Verge . 21 February 2021時点のオリジナルよりアーカイブ 。27 February 2021 閲覧。
^ Vincent, James (24 July 2019). “This AI-powered autocompletion software is Gmail's Smart Compose for coders ”. The Verge . 9 March 2021時点のオリジナルよりアーカイブ 。27 February 2021 閲覧。
^ Olson, Mathew (17 December 2019). “AI Dungeon 2, the Text Adventure Where You Can do Nearly Anything, Is Now on Mobile ”. 20 September 2020時点のオリジナルよりアーカイブ 。27 February 2021 閲覧。
^ Nelius, Joanna (3 August 2020). “This AI-Powered Choose-Your-Own-Adventure Text Game Is Super Fun and Makes No Sense ”. Gizmodo . 28 February 2021時点のオリジナルよりアーカイブ 。27 February 2021 閲覧。
^ Ha, Anthony (4 February 2021). “AI Dungeon-maker Latitude raises $3.3M to build games with 'infinite' story possibilities ”. TechCrunch. 21 February 2021時点のオリジナルよりアーカイブ 。27 February 2021 閲覧。
^ “Write With Transformer ”. December 4, 2019 閲覧。
^ “Talk to Transformer ”. December 4, 2019 閲覧。
^ “CreativeEngines ”. June 25, 2021 閲覧。
^ “An AI is training counselors to deal with teens in crisis ”. MIT Technology Review (26 February 2021). 27 February 2021時点のオリジナルよりアーカイブ 。27 February 2021 閲覧。