Rcurlを使用してRで行います
search_result_adress <- sprintf("http://www.google.com/search?q=%s",searched_expression)
result_page_source_as_string <- getURL(search_result_adress,.opts = list(ssl.verifypeer = FALSE))[[1]]
次に、結果は「About」と「results」の間の文字列に配置されます。正規表現のスキルが恥ずかしくて、自分のソリューションを表示できませんが、きっと理解していただけると思います:)。
ページ数は確かに正確ではありませんが、とにかく存在しない単語を検索から削除することで、より安定した結果を得ることができるため、Google はよりハードに検索します。私はそれらをもっと信頼する傾向があります。
「文字」の検索例
文字は 290,000,000 の結果を返します。
character -potato は 931,000,000 を返します
文字 -hincbhjvmzsslzlkjed は 1,780,000,000 を返します
character -zzzanjbedlkjzd も 1,780,000,000 を返し、安定化を示しています
一般的ではないクエリの場合、見積もりはより適切です。
「Google は私をイライラさせます」は 3,920 件の結果を返します。
「Google は私をイライラさせます」 -potato は 2,870 を返します。
「グーグルは私をイライラさせます」 -hincbhjvmzsslzlkjed は 2,860 を返します。