自動ペナルティで検索圏外にぶっ飛んだサイトが回復してきました!【Googleペナルティを解除する方法】

http://afi-vison.com/%E8%87%AA%E5%8B%95%E3%83%9A%E3%83%8A%E3%83%AB%E3%83%86%E3%82%A3%E3%81%A7%E6%A4%9C%E7%B4%A2%E5%9C%8F%E5%A4%96%E3%81%AB%E3%81%B6%E3%81%A3%E9%A3%9B%E3%82%93%E3%81%A0%E3%82%B5%E3%82%A4%E3%83%88%E3%81%8C-1276.html

とはいえ、明らかにペナルティを受けた変動だったので問題箇所を改善できればまた戻ってくると思い、色々と試行錯誤をしてみました。

2014年4月収入報告でも書きましたが以下が考えられました。

strongタグの多様
薄い記事(500文字前後)の放置
構造化エラー
不自然な被リンク
画像にアフィエイトリンク
内部リンクの不足
1.strongタグの多様について
WordPressは「Ctrl+B」で太字になりますが、これは強調を意味しており、乱用するとスパム扱いされる可能性があります。マナさんの「strongタグとリンクの使い方を最適化し、SIRIUSシリウスSEO力アップ」の記事で解説されています。太字を使いたい時は「b」タグかCSSでを使ったほうがいいようです。strongだらけだったので100記事あるブログをひたすら修正しました。しかし、回復はしてきませんでした。

2.薄い記事の放置
外注さんとは800文字前後で記事を書いてもらっていましたが、最低でも500文字はほしいと言っていたところ、ある納品のときほとんどが500文字ちょっと超えたくらいの記事が20記事ほど上がってきていました。

「次からは800文字以上でお願いします。」ということで了承してもらったのですが、この500文字の記事もまあいいかという気持ちで全てアップさせていました。この記事自体検索ではあまりヒットせず、アクセスもなかったのでサイトの価値を下げていたのかもしれません。これが原因かなと思い、500文字の記事は削除し、1000文字以上の記事を入れるようにしましたが・・・回復はしませんでした。

ちなみにブログの文字数は1200文字以上はほしいところです。詳しくは「Google AdSenseで稼ぐコツ・方法2 ブログ記事の文字数は何文字以上にすべきか」を参考にしてください。

3.構造化エラー
ウェブマスターツールに登録すると構造化エラーが出ていました。「WordPressユーザー要注意!〜構造化データのエラーでアクセス激減?」の記事を参照ください。

よくわからないのですが、どうも使っているテーマ「stinger」ではよく発生するエラーのようです。このエラーは上記サイトを参考に修正しました。現在も発生していますが、徐々に減少していっています。ですが、これもペナルティの原因ではないようです。

4.不自然な被リンク
通常不自然なリンクでペナルティを受ける場合はウェブマスターツールで警告が来るようです。私のブログは警告が来ていなかったので関係はないと思います。実際、このサイトからリンクを送っていたのと、無料ブログから数本送っていただけでしたので問題ないと思います。ですが、念のため無料ブログからのリンクは削除し、このサイトからも「no follow」を付けました。

5.画像にアフィリエイトリンク
よくアクセスのある記事は歯に関する記事でしたのでここに電動歯ブラシや歯磨き粉のアフィリエイトリンクを張りました。見栄えをよくするためにASPで用意されているバナーではなく、実際の画像をコピーしてきてそこにアフィリエイトリンクを張りました。(リンクを改ざんする行為で場合によってはASPからペナルティを受けるので今後は控えますが)これがちょっと広告感出しすぎだったかなと思い、画像リンクを削除しました。ですが、効果はありませんでした。

6.内部リンクの不足
とにかく直帰率の多いブログでした。というのも1記事1テーマ完結の記事内容が多かったため他の記事を見る必要がなかったようです。「SEOの内部対策の教科書 |SEO初心者がまずすべき内部対策とは」でも紹介していますが、記事に内部リンクを増やすことがSEOにとって有効のようです。直帰率を下げることになりますし、ユーザーにとても有益です。

内部対策SEOを勉強したい方はこの本がおすすめです。内部リンクがなかったからといってペナルティにはなりませんが、今後も改善させていきたいと思います。

とまあ、以上を試してみましたが、いっこうアクセスが回復することはありませんでした。1ヶ月程度で回復するかと思っていましたが、甘かったですね。ほぼ諦めて次のサイトの作成に時間を充てることにしました。ですが、時々気になって何かしら修正したりしていました。そんなある日、ウェブマスターツールで「重複データ」のエラーが多く出ていることに気づきました。

重複データ

何故こんなに重複していたのかといいますと、パーマリンクの変更が原因だと思います。外観テーマ「stinger」を使う前に別のテーマを使っており、投稿の日本語タイトルをURLにしていました。しかし「stinger」では日本語のURLを受け付けず自動で数字に変換してしまうため記事のURLが変わってしまっていたようです。Googleでは変更前の日本語のURLがキャッシュされており、変更後の英数字のURLが重複データであると認識し、エラーになっていたようです。

重複データもアクセスにはほぼ影響がないという話でしたが、治せるものは治そうと思い、修正しました。具体的にはリダイレクションをして、変更前の日本語URLから変更後の英数字URLへ飛ばすようにしました。WordPressのリダイレクションのプラグインでは「Redirection」が有名ですが、なぜか私のサーバーではうまく機能せず、諦めかけていたのですが、「Simple 301 Redirects」というプラグインがあり、試してみるとうまくいきました。

手動で100記事をコツコツ直し、経過を待ちました。

すぐには反映されなかったのですが、ある日ウェブマスターツールをのぞいてみると重複データがなくなっており、「おお!遂に改善された」と思いました。数日後、アクセスを見てみると、少し回復。いつもはbingからしかアクセスがないのですがこの日はyahooやGoogleからもアクセスがありました。

そして遂に・・・・・・

ブログ回復

回復!!いや・・・ちょっとやけど!!

タイトルで検索してもちゃんと出てきますし、自分の中ではかなり回復したと思っています。4月から回復まで約3ヶ月かかりましたね。もとのアクセスに戻るまではもう少しかかりそうですが、記事を増やしたりなどして今後も大事に育てたいと思います。

そもそもなぜアクセスが増えていったのか

なかには役立つ記事ももちろんありましたが、500文字の記事等もあり、正直なぜアクセスが増えていったのかよくわかっていませんでした。

記事を量産したから増えたのか?そんな単純にアクセスが増えるのであれば誰も苦労しませんし、薄い大量の記事があふれているスパムサイトがもっと反映しているはずです。

実は自然な被リンクをもらえていたからだと思います。

SEOチェキのリンクチェックでは全く被リンクゼロだったのですが、ウェブマスターツールの「サイトへのリンク」を見ると、無料ブログ、内部リンクも含めて被リンクを見ることができます。

被リンク

見てみると、自分でやった無料ブログやはてぶの他にもリンクがされています。リンクを辿ってみると主に「まとめブログ」系(例えば脚ダイエット特集とか)からのリンクが張られていました。うれしいことですね。1記事1テーマなのでそのテーマをまとめているニッチなサイトには引っかかりやすい内容だったのかもしれません。1記事1テーマだとリンクをもらいやすいかもしれませんね。

被リンクをもらうとサイトの価値が上がり、アクセスは増えますが、一方で500文字程度の薄い記事もあるのでペナルティを受けたのかもしれません。でもその場合も警告メールが来ると思いますが。とはいえ、今後も被リンクをもらい、アクセスを増やしていきたいですね。

自動ペナルティを解除する方法 まとめ

タイミングとしては重複データを改善させたことによる回復でしたが、実際のところどれが原因であったかははっきりしていません。とにかくできることは何でもしてみるのが良いでしょう。

自動ペナルティを受けたら以下の項目をチェックしてみてください。

strongタグは多用していないか
薄い記事(500文字前後)は残っていないか
構造化エラーは起きていないか
不自然な被リンクはしていないか
画像にアフィエイトリンクはしていないか
内部リンクの不足はないか
重複データエラーは出ていないか
以上、アクセスがもとに戻るまで回復したらまた追記したいと思います。

では、少しでもお役に立てれば幸いです。

アーカイブをnoindexすべきか問題

アーカイブをnoindexすべきか問題

http://notnil-creative.com/blog/archives/2675

WordPressのアーカイブに<meta name="robots" content="noindex">タグをつけるべきかどうか?という話題がありまして、こちらの記事に巻き込まれています。

【改訂版】重複コンテンツ問題まとめ~ややTogetter風~|ウェブシュフ

ざっくり言うと「アーカイブが重複コンテンツ(Duplicate Content)とみなされるとGoogleの順位が落ちるから、アーカイブはあらかじめ検索インデックスに含まれないようにすべき」という話かと思うのですが、全くナンセンスだと思います。ここからはおでさんの記事と同じようなことを書いてますが

サイトに重複するコンテンツが存在しても、偽装や検索エンジンの結果を操作する意図がうかがえない限り、そのサイトに対する処置の理由にはなりません。
- 重複するコンテンツ – ウェブマスターツールヘルプ
ということですので。さらに

Google は、固有の情報を持つページをインデックスに登録して表示するよう努めています。たとえば、サイトの各記事に「通常」バージョンと「印刷用」バージョンがあり、両方とも noindex メタ タグでブロックされていない場合、フィルタリングによってどちらか 1 つが登録されます。
- 重複するコンテンツ – ウェブマスターツールヘルプ
コンテンツが重複してて noindex が入ってなかったとしても、よろしくやっとくよ。ということですね。

ごくまれなケースとして、Google でのランキングの操作やユーザーへの偽装を意図した重複コンテンツが表示される可能性が認識された場合も、Google では関係するサイトのインデックス登録とランキングに対して適切な調整を行います。その場合、該当するサイトはランキングが低下するか、Google インデックスから完全に削除されて検索結果に表示されなくなる可能性があります。
- 重複するコンテンツ – ウェブマスターツールヘルプ
通常のサイトではあり得ないごくまれなケース(In the rare cases)ではあるが、偽装を意図して重複コンテンツを作っている人がいますので、そういう悪い子は検索結果から削除するよ。ということですね。

重複するコンテンツに関して事前に対処し、ユーザーに意図したとおりのコンテンツが表示されるようにするための手順を以下に示します。
- 重複するコンテンツ – ウェブマスターツールヘルプ
Googleは重複コンテンツがあってもどれを検索結果に出すべきかちゃんと判断するけど、自動なので自分の意図通りじゃないものが検索結果に出る可能性がある。そう言う場合は事前にGoogleに知らせる方法があるよ。ということですね。



 
 

これ以上なにか疑問があるかしら、というくらい明確な文章ですが、似たような質問に動画でも答えています。



「robots.txtを使って自分で重複コンテンツ対策することは推奨しない。全てクロールしたうえで、サイトの構造を解析して、どのURLを検索結果に表示するか判断したいからね。」

結論としてはGoogle神の祟りを畏れてnoindexを入れなくても全然問題ないし、でも検索結果に不本意なURLが出ていたら対策することもできるよ。と言うことだと思います。Twitterで @web_shufu さんに教えてもらったんですが(Thanks!)、Webmaster Centralのフォーラムでも同様の回答がありました。

- If you have a lot of tag-pages and feel that they aren’t providing a great user-experience, you could use a “noindex” meta tag on them. That would allow us to crawl through them, while avoiding them being shown in the search results.
- Webmaster Central Forum
もしたくさんのタグページがあって、それらが良いユーザーエクスペリエンスを提供していないと感じる場合は、noindexメタタグを使用してもやむを得ないだろう。それらが検索結果に表示されなくはなるが、我々は依然クロールすることはできるからね。

ということですね。”you could use” なのでだいぶ弱い表現です。ユーザーエクスペリエンスを損なうと感じるならば、noindex使うのも仕方ないけど、robots.txtで拒否するのはやめてね。って感じですね。

Googleの姿勢として全体的に、ユーザーが検索エンジンに何を求めているのか、オマエラより俺らの方が分かってるんだから任せておけ、というニュアンスを感じます。それはそれで過去の歴史上そうでもなかっただろという気がしなくもないですが。

ここまでの情報を集めて、ふとこの記事を思い出しました。

【WordPressカテゴリーページのSEO】meta name=”robots”をindexにする前にやるべき8つのこと|ウェブシュフ

低品質なアーカイブはnoindexした方がいいんじゃないの、という記事ですね。確かに、今回この記事に”noindex”というタグ(metaタグじゃなくて、WordPressのタグ機能のことですよ)をつけますが、このブログに”noindex”タグがついた記事は今のところこの1件ですので、”noindex”タグのアーカイブはユーザーが見ても何の意味も無いページだと思います。一方、WordPressという検索語でユーザーが当ブログにアクセスした時、どのURLが最もWordPressというキーワードに合致しているかと言うとWordPressタグのアーカイブだと思います。個々の記事がもっとも役に立つWordPress記事かどうかなんて判断できませんので、アーカイブから見てもらうのが一番いいと思います。

つまり、タグアーカイブもぼくはインデックスしてほしいし、でも件数が少ないタグアーカイブはそうでもないな。ということです。で、作ってみました。記事数が2件以下、つまりまだ1件しか記事がないタグアーカイブにnoindexを出力するプラグインです。すでに有効化済みです。

サイトのコンテンツや構造によっては件数を調整したいかもしれませんので、そのときは $number 変数を調整してください。

01
02
03
04
05
06
07
08
09
10
11
12
13
14
<?php
/*
Plugin Name: No-indexing newborn tag archives
*/
 
function my_archives_noindexing() {
    global $wp_query;
    $number = 2; // Print noindex tag if the tag archive has posts less than this number
    if (is_tag() && (int) $wp_query->found_posts < $number) {
        echo '<!-- This tag archive does not have much content. -->';
        echo '<meta name="robots" content="noindex,follow">';
    }
}
add_action( 'wp_head', 'my_archives_noindexing' );
最後の判断基準は「ユーザーエクスペリエンス」これを忘れないようにしたいものです。

こちらからは以上です。

meta name=”robots”の使い方

<meta name="robots">の使い方

http://www.seo-matome.jp/index-control/meta-robots/

<meta name="robots">は<head>内に記述することで検索エンジンにさまざまな指示を与えることができるタグです。大きく分けると、以下のような用途があります。
該当ページのインデックス拒否
該当ページのキャッシュ拒否
該当ページからリンク(PageRank)評価を受け渡すことの拒否
有力ディレクトリ登録文をスニペット(SERPsの説明文)に流用することの拒否
該当ページのインデックス拒否
以下のように記述することで、そのページのインデックスを拒否することができます。 
※このページで記述しているサンプルは全てHTML4.01もしくはHTML5用のものです。サイトのコードがXHTMLの場合は末尾の「>」直前に半角スペースと「/」を追加してください。
<meta name="robots" content="noindex">
該当ページのキャッシュ拒否
以下のように記述することで、そのページのキャッシュを拒否することができます。ECショップや会員制のサイトでよく使用されます。また、Internet Archiveのようなサービスにキャッシュを取得されたくない場合などに設定すると良いでしょう。
<meta name="robots" content="noarchive">
該当ページからリンク(PageRank)評価を受け渡すことの拒否
以下のように記述することで、そのページからのリンクを全て評価の対象としないようクローラーに指示することができます。リンクに関しては全て「rel="nofollow"」が記述された状態になるようなものです。
<meta name="robots" content="nofollow">
有力ディレクトリ登録文をスニペット(SERPsの説明文)に流用することの拒否
GoogleであればDmoz、Yahoo!Japanであればヤフーカテゴリーといった提携ディレクトリ登録サービスから、SERPs(検索結果)<の説明文に文章を引用してくることがあります。それを拒否するための記述です。
Dmoz引用拒否
<meta name="robots" content="noodp">
ヤフーカテゴリー引用拒否
<meta name="robots" content="noydir">
※2010年のYahoo!JapanによるGoogleアルゴリズム採用以降、ヤフーカテゴリーから説明文が引用されることはほとんどなくなりました。
全ての記述は一行にまとめることができる
例えば、以下のように記述することも可能です。(「noindex」である以上後半二つにあまり意味はありませんが。)
<meta name="robots" content="noindex,nofollow,noarchive,noodp,noydir">
「許可」も記述できるが、デフォルトなので省略すべき
noindex,nofollowに関しては「許可する」といった意味合いの記述も可能です。
<meta name="robots" content="index,follow">
もしくは、
<meta name="robots" content="all">
が、これらはデフォルトで「許可」された状態ですので記述する必要はありません。DOCTYPE宣言・<head>内のHTMLソースコードでもお伝えしていますが、無駄な記述は極力避けてシンプルなソースコードを目指しましょう。