Professional Documents
Culture Documents
Transformer から理解する Gpt の使い方: Chatgpt 使い方ゆる共有会 2023.0408, Online
Transformer から理解する Gpt の使い方: Chatgpt 使い方ゆる共有会 2023.0408, Online
0408, ONLINE
Transformer から理解する
GPT の使い方
いっちー / icchy
Twitter: @P_ichikura
今日の概要
• 位置エンコードについて
• 従来法との比較
• 学習時間の短縮について
• 特徴量の比較
“Transformer” の凄さ!
• 2017 年 12 月に” Attention Is All You Need” という論文で公表
位置 Multi-Head Multi-Head
出力 ・・・ ・・・ 確率モデル
エンコード Attention Attention
日本語から英語への変換を考えると、、、
位置 Multi-Head
入力 ・・・
エンコード Attention
単語ごとの確率
5
[ わたし ,
4
わたしはペンを持っている。 は,
ペン , 各単語ごとの 3
を, 出現確率を計算 2
1
持っている。 ]
0
位置 Multi-Head Multi-Head
出力 ・・・ ・・・ 確率モデル
エンコード Attention Attention
[ I,
I have a pen. have , 各単語ごとの 入力と出力
a, 出現確率を計算 の位置合わせ
pen.]
“Transformer” VS “GPT”
• 長文 / 多言語の解析に対応
Transformer
• さまざまなタスクへの適応
GPT
“Chat GPT” の使い方のコツ
• 抽象的な質問は可能な範囲で避ける!
• タスクと条件による書き分ける!
• 英語で書ける場合は英語で書く!
やってみた!
もっと細かいことは Prompt エンジニアさんに、、、
この記事を読んでる
• https://qiita.com/sonesuke/items/24ac25322ae43b5651bc
Elicit
• 論文要約用に使う
参考文献 ( より詳しく知りたい方へ )
https://arxiv.org/abs/1706.03762#.
https://qiita.com/omiita/items/07e69aef6c156d23c538