-
ウェブマスターツール「robots.txtエラー」は死を意味する
投稿日 2018年6月12日 15:45:34 (アフィリエイト)
-
クレクレ君は稼げない!「稼げる人」と「稼げない人」の分かれ道
-
1年前に詐欺られたことを稲川淳二になりきって怪談っぽく語ります。
-
「不用品をネットで高く売る方法」を知ってればアフィリエイトでも稼げるって話
-
俺のGIFフォルダが火を噴くぜ!!
-
稼げない人がナチュラルにやってしまってる「業者目線ライティング」とは?
-
「ウサギとカメ」のカメになれ その3(完)
-
記事はまず60点を目指せ!!の本当の意味を知らないと終わる
-
【2021年】ペラサイト量産で稼げる時代は終わった
-
「モバイルユーザビリティの問題が検出されました」を3秒で解決する方法
-
【2021年】アフィリエイト初心者が稼げない理由&原因5つ
-
「私のイラストを腕に彫ったクールすぎるファン」と「バタフライ効果」の話
-
【芸術の秋】ttt葛飾北斎の展覧会に行くの巻。
-
これぞまさしく、”アフィリエイターのお仕事そのもの”です。
-
「日常が壊れる=悪いこと」ではない
-
「ウサギとカメ」のカメになれ その2
-
「ウサギとカメ」のカメになれ その1
-
「残念な営業電話をかけてきた葬儀屋を助けたい!」勝手に売り上げアップの方法を考えてみた
-
アダルトアフィリエイトで稼ぐことは悪なのか?
-
日清焼そばU.F.O.の歴史から学ぶ「良い記事」の作り方
-
【結論】SEO対策における最適な文字数について語ります。
-
「パンくずリストで問題が検出されました」とサーチコンソールから警告メールが来た時の対処法
-
読まれる文章の書き方とは?読まれない文章を卒業する方法教えます。
-
【2020年】アフィリエイトを今からやるのは遅いのか?真実を暴露します。
-
アフィリエイトは最初に投資が必要って話~過去メルマガ~
-
アフィリエイトは稼ぎ始めてからの方が「作業が進まない」という話
-
【2020年】アフィリエイト初心者が稼げない理由&原因5つ
-
「頑張る」ヤツは失敗し、「努力」するヤツは成功する
-
アドセンスのサイト追加方法。審査期間はどのくらい?
-
ノウハウコレクターとは?なりやすい人の特徴と脱出方法。
-
アフィリエイトでノウハウコレクターになりがちな人の共通点
もうタイトル通りなんですよ。
ウェブマスターツールことサーチコンソールに「robots.txt取得エラー」が表示されるということは、サイトの死を意味するんです。
なんたって、ページのインデックスがドンドン削除されて行きますからね。洒落になりません。
で、なんと・・・
ここ数日、まさしく私が運営しているサイトの一部がそんな状況でした。
まぁ早い段階で気が付いたので、2~3日で順位も戻り、大きな被害にはならなかったのが不幸中の幸いですね。
と言うわけで、今後アナタが私と同じことにならないよう、「robots.txt取得エラー」のヤバさと、解決策についてシェアしたいと思います。
robots.txtって何?
robots.txtは、「ロボットに向けてのメッセージが書かれたテキスト」です。なんて言っても意味が全くわからないと思うので簡単に解説しておきます。
アナタが運営してるサイトには、多かれ少なかれ毎日のように色んな人がアクセスしてくれてますよね?で、実はアクセスしてくれるのは人だけではなく、複数のロボットもアクセスして来てるんですよ。これが通称、クローラーという奴ですね。
このクローラーの仕事は、web上のサイト情報を収集して自社データベースに持ち帰ることなんです。アナタのサイトがネット上で順位付けされてるのもgoogleクローラーのお陰だったりするんですよ。
で、ここから超重要なんですが、アナタのサイトが順位付けされてるのは、アナタのサイトにgoogleクローラーがアクセスできるからなんです。逆から言えば、googleクローラーがアクセスできないようになってしまうと、googleはサイトの評価が出来なくなってしまうってことですね。
もう気付いたかもしれないですが、robots.txtを利用することで、こっちからロボットであるクローラーに意思表示することができるんですよ。つまり、使い方によってはgoogleクローラーをサイト内に入れなくすることだってできるんです。
『えっ?なんか重要っぽいけど、聞いたことすらないよ!?』と思うかもしれませんね。安心してください。普通にブログやサイトを運営する場合、robots.txtなんて使いませんから。
【robots.txtを使っていない】=【制限無くアクセスしてOK】なので、通常は全く問題ないんですよ。通常は・・・ね。
はい。というわけで、もうプロレベルにrobots.txtの理解が深まってますんで、次に進めたいと思います。
サイトのインデックス削除ラッシュが止まらない
冒頭でも伝えた通り、ここ数日、私が運営するサイトの一部は、インデックスが次々と削除されるという事態に陥ってました。
当日の衝撃は中々のレベルでしたね。いつも通りコーヒー飲みながらGRCでサイトの順位をチェックしたら、1位から圏外にぶっ飛んでるサイトがいくつかあるわけですから。モチロン、報酬も合わせてガタ落ち。まさに地獄。
例えるなら、小5にもなって、授業中に先生のことを「お母さん」と呼んでしまうくらい地獄です。
こんな地獄すぎる状況でも『絶対に何か原因あるやろ!』と思いながら長時間探ってました。そしたらついに、サーチコンソール上でrobots.txtに問題があるとわかったんです。
5/28から急にrobots.txt取得エラー
ちなみに、さっきも言ったとおりrobots.txtが入って無くても問題ないんですよ。だから私は、基本的に全てのサイトにrobots.txtを入れていないんです。
しかし!いきなり何の前触れもなくこの有様なんです。『え!?急にどしたん!?』と。
『特にrobots.txtを弄ったわけでもない・・・というかrobots.txtすらない。んんん?サーバー側でなんかあった?』と思って調べてみると、予想的中。なんと私が契約してるサーバーが5/28辺りで新しいサーバーに切り替わってたんです。これを期に、通常robots.txtが無くても問題は無いのに、サーバー状況が不安定になったことでrobots.txt取得エラーが頻発してたというわけです。
状況を整理すると、インデックスが削除されまくってたサイト達は”全て同じサーバー”に入ってて、そのサーバーが”新しいサーバーに切り替わったこと”でgoogleクローラーが入れなくなってたってことですね。
今回の事件を解決するために色々と調べて知ったんですが、米googleの偉い人いわく、『通常robots.txtはいらない。でもサーバーが不安定になった時はrobots.txtがないとrobots.txt取得エラーが出てしまう。だからrobots.txtは入れておいた方が安全だろう』ということでした。
と言うわけで、運が悪ければ何かのきっかけで、アナタも私と同じような事態に巻き込まれる可能性もゼロじゃないわけですよ。
なので、その事態を未然に防ぐために、tttが実際にこの事態を解決したrobots.txtを提供するので使ってください。
これをぶち込めば安心!!robots.txtをシェアします
私のように悲しい事態になりたくなければ、このrobots.txtをダウンロードして、アナタのサーバーにアップしておきましょう。
アップロード場所は、ドメイントップでOKです。
例えばこのサイトなら、「affiliate-blog7.com」と同じ階層にアップロードすればOKですね。サーバーによっては、「affiliate-blog7.com/public_html/」になります。
で、このrobots.txtに書いてる内容なんですが、下記の2行だけなんですよ。
Disallow:
これ、何?って話だと思うので簡単に解説しておくと、「制限なくサイトにアクセスしてOKです!」の意味です。
念のため言っておくと、「不正アクセスも大歓迎!!」みたいな話じゃないですよ。クローラーに対して、「このサイトにアクセス制限はございませんので、全てのページをご覧頂いて高評価してくだせぇ!!」って感じですね。
ちなみにこのrobots.txtをぶち込んだことで、状況は落ち着きました。
robots.txt取得エラーはゼロになり、順位も回復しました
備えあれば憂いなし!ということで、是非アナタのサイトにもぶち込んでおきましょう。
最後に
アフィリエイトは未知の連続で、時には解決するために何日も掛かってしまうことってありますよね?
私は今回の事態を解決するために、2日ぐらい費やしました。
でも『また、レベルアップできたなー』と思いましたね。
アナタも新しいことにチャレンジして何日も費やすことがあると思います。
でも、そこを乗り越えた人にしか成長はなく、成功もないということを知ってください。
諦めずに続けると・・・
テレレレーテッテッテーン!!
Source: アフィリエイトで稼いでる人のブログ
最新情報