どうしてもエラーが出てた
あるサイトだけ更新情報をdlvr.itでトラッキングのためのパラメータが付加された状態でtwitterに投稿してもtwitterカード表示されなくて困ってた。twitterカード検証ツールでもトラッキングのためのパラメータがあるときはエラーになった。
Fetching the page failed because it's denied by robots.txt.
こんなメッセージが出る。robots.txtはWordpressで余計なクロールをされないようにしてあるけど記事や画像は弾いてないのに、というかrobots.txtって関係あるの?と思っていた。
さらに検索して調べてたらやっと原因がわかった。
Wordpressで余計なクロールをされないための記述は何年か前にいろいろ検索した結果を元に書いていた。その中ある指定がtwitterカードを表示させなくしていた。Disallow: /*?*
Disallow: /*?
この記述だ。URLにパラメータを付加したものは弾くようになっている。dlvr.itがトラッキングのためのパラメータを付加したらこれで弾かれてたのでtwitterカードが表示されなかったわけだ。
twitterカードの表示にrobots.txtって影響あるんだとやっと理解した。
あらためてrobots.txtを確認してみるとちょっと過剰に制限していたみたい。なので上記の記述を無くしたのはもちろんもっとシンプルにした。
この修正をしたら過去の投稿も含めてtwitterカード表示されるようになった。わかってみれば大した理由じゃなかったわけだけどそのへん詳しくないから思い至らなかった。
0 件のコメント:
コメントを投稿