このデモの結果を複製しようとしています。このデモの作者は、次のテキストだけで GPT-3 を準備しています。
gpt.add_example(Example('apple', 'slice, eat, mash, cook, bake, juice'))
gpt.add_example(Example('book', 'read, open, close, write on'))
gpt.add_example(Example('spoon', 'lift, grasp, scoop, slice'))
gpt.add_example(Example('apple', 'pound, grasp, lift'))
Huggingface Transformer 経由で GPT-2 にしかアクセスできません。上記の例を複製するために、Huggingface で GPT-2 large を準備するにはどうすればよいですか? 問題は、このでは、入力と対応する出力を別々に準備できないことです (GPT-3 デモの作成者が上記で行ったように)。
同様に、このチュートリアルでは Huggingface の使用について説明していますが、入力と出力の例を使用してどのように準備できるかを明確に示す例はありません。
誰もこれを行う方法を知っていますか?
望ましい出力: GPT-2 を使用して、入力「ポテト」に対して出力「皮をむき、スライスし、調理し、マッシュし、焼く」のようなものを返します (GPT-3 デモのように: https://www.buildgpt3.com/post /41/ )。明らかに、GPT-2 と GPT-3 は同一のモデルではないため、出力動詞の正確なリストは同じではありません。