具体的には、従来のチャットボット フレームワークは 3 つのコンポーネントで構成されています。
- NLU (1.意図分類 2.エンティティ認識)
- 対話管理 (1. DST 2. 対話ポリシー)
- NLG。
チャットボットをトレーニングするために深層学習モデル ( seq2seq、lstm、transformer、 …) を使用する場合attention、bertこれら 3 つのコンポーネントすべてをカバーするのでしょうか? もしそうなら、それがそれらの3つの部分にどのように関連しているか、より具体的に説明していただけますか? そうでない場合、どうすればそれらを組み合わせることができますか?
例えば、私はクローズドドメインのチャットボットを構築しましたが、それは挨拶などの他の部分を処理できないタスク指向のみです...そして、それはCoreference Resolutionの問題を処理できません(対話管理を持っていないようです)。