サービスとしての BERT ( https://github.com/hanxiao/bert-as-service ) を使用すると、文レベルの埋め込みを抽出できます。300 次元の単語ベクトルを提供する事前トレーニング済みの LSA モデルがあると仮定すると、意味の一貫性について 2 つの文を比較しようとしているときに、LSA モデルが BERT よりも優れたパフォーマンスを発揮するシナリオを理解しようとしています。
LSA は単語行列の大きな袋の圧縮にすぎないため、このユースケースに LSA が適している理由は思いつきません。