Sparkに似たもの- キーでグループ化し、値でカウントするdf.series.value_counts()
と、Spark でパンダの機能をエミュレートして次のことができます。
結果のオブジェクトは降順になるため、最初の要素が最も頻繁に発生する要素になります。デフォルトで NA 値を除外します。( http://pandas.pydata.org/pandas-docs/stable/generated/pandas.Series.value_counts.html )
Spark のデータ フレームでこれをより適切に/より簡単に実現できないかどうか、私は興味があります。