ついに、RからSearch Consoleを操作できるパッケージが登場しました。Yahoo!もSSL化し検索キーワードの取得が難しくなった今こそ、役に立つのではないでしょうか。ブラウザからSearch Consoleの操作に違和感を感じていた方は、ぜひ利用してみてください。
本パッケージでは検索アナリティクスの取得だけではなく、サイトマップの操作やクロールエラーなどのデータ取得ができます。RとSearch Consoleの連携も「gar_auth」コマンドを実行するだけのお手軽仕様です。
本サイトのデータを取得してみると、Rに関する記事やシャーロットに関するクエリが多いですが、7月に放送が終了した「ダンジョンに出会いを求めているのは間違っているのだろうか」に関するクエリ数が日に日に増えていることがわかりました。2期はやらないのでしょうか。「ダンまち」名作です。
パッケージのバージョンは0.1.2。R version 3.2.1でコマンドを確認しています。
パッケージのインストール
下記コマンドを実行してください。
#パッケージのインストール
#install.packages("googleAuthR")
install.packages("searchConsoleR")
実行コマンド
詳細はコマンド、パッケージヘルプを確認してください。
#パッケージの読み込み
library("googleAuthR")
library("searchConsoleR")
#グーグルアカウントの許可
#実行するとウェブブラウザが起動します
gar_auth()
#サーチコンソールで管理しているサイトの取得
sc_websites <- list_websites()
sc_websites
siteUrl permissionLevel
1 https://www.karada-good.net/ siteOwner
#データの取得:search_analyticsコマンド
#取得データの設定:dimensions;"date","country","device","page","query"
#取得データのフィルタ:dimensionFilterExp;
#オプションの種類;"device:DESKTOP or MOBILE or TABLET","page","query"
#演算子の種類;含む:~~,含まない:!~,イコール:==,ノットイコール:!=
#取得データ数の指定:rowLimit;maxは5,000
#フィルタを指定せず検索クエリとページURLを含むデバイス別データを取得
#フィルタを指定する場合は#を削除してください
GetData <- search_analytics(siteURL = "https://www.karada-good.net/",
startDate = "2015-07-01", endDate = "2015-08-01",
dimensions = c("query", "page", "device"),
#dimensionFilterExp = c("device==DESKTOP","country==JPN"),
searchType = "web", rowLimit = 1000)
#データの抜粋,クエリ順位,クリック,インプレッション,CTRの数値は変更しています
query page device clicks impressions ctr position
ダンまち 二期 https://www.karada-good.net/analyticsr/r-126/ MOBILE 9999 99999 1 5.767786
ダンまち 2期 https://www.karada-good.net/analyticsr/r-126/ MOBILE 9999 99999 1 5.284398
ダンまち 2期 https://www.karada-good.net/analyticsr/r-126/ DESKTOP 9999 99999 1 5.376796
r テキストマイニング https://www.karada-good.net/analyticsr/r-10/ DESKTOP 9999 99999 1 3.151659
シャーロット op https://www.karada-good.net/analyticsr/r-156/ MOBILE 9999 99999 1 9.353448
ダンまち二期 https://www.karada-good.net/analyticsr/r-126/ MOBILE 9999 99999 1 5.441573
#作業ディレクトリにデータのCSV出力
#mac用
write.csv(GetData, "GetData.csv", quote = FALSE,
row.names = FALSE, fileEncoding = "CP932", eol = "\r\n")
#windows用
write.csv(GetData, "GetData.csv", quote = FALSE, row.names = FALSE)
#サイトマップの確認:list_sitemapsコマンド
list_sitemaps("https://www.karada-good.net/")
$sitemap
path lastSubmitted isPending isSitemapsIndex lastDownloaded warnings errors
1 https://www.karada-good.net/sitemap.xml 2015-04-13T22:49:34.958Z FALSE TRUE 2015-08-22T23:51:42.784Z 0 0
$contents
type submitted indexed
1 web 356 258
#サイトマップの追加:add_sitemapコマンド
add_sitemap(siteURL = "https://www.karada-good.net/", feedpath = "https://www.karada-good.net/sitemap.xml")
#サイトマップの削除:delete_sitemapコマンド
delete_sitemap(siteURL = "https://www.karada-good.net/", feedpath = "https://www.karada-good.net/sitemap.xml")
#クロールエラーの確認:crawl_errorsコマンド
CErrorsData <- crawl_errors("https://www.karada-good.net/")
head(CErrirsData)
platform category count timecount
1 web notFound 17 2015-05-21
2 web notFound 17 2015-05-22
3 web notFound 18 2015-05-23
4 web notFound 19 2015-05-24
5 web notFound 20 2015-05-25
6 web notFound 20 2015-05-26
#URLエラーの取得:list_crawl_error_samplesコマンド
CErrorsListData <- list_crawl_error_samples("https://www.karada-good.net/")
少しでも、あなたのウェブや実験の解析が楽になりますように!!