0

Recursive Descent vs. LALR のこの投稿によると、任意の LALR(k) は「因数分解」によって LALR(1) に変換できます。私は投稿で言及されている Dragon Book を所有していません。その因数分解を行う方法について、オンラインのどこかに説明や例がありますか?

4

1 に答える 1

0

ドラゴンブックはこの定理についてのみ言及し、証明されたと述べています. それ以上の詳細は提供していません。ステートメントの要点は、LR(k) パーサーは LR(1) より優れているわけではないということです。これが、LR(1) パーサーがどこでも使用される理由です。

そもそも何が目的だったの?すでに LR(k) 文法を持っていますか?

于 2012-06-16T20:08:11.287 に答える