-
AuthorPosts
-
November 27, 2022 at 8:00 am #1374004
Hallo,
seit ich letzte Woche mein Theme auf Enfold umgestellt habe, bekomme ich seitens Google massive Fehlermeldungen in Bezug auf die Seitenindexierung, die mit dem alten Themen nicht vorhanden waren:In diversen Foren fand ich den Hinweis, die robots.txt File entsprechen anzupassen, um bestimmte Zugriffe einzugrenzen. Leider finde ich in der config.php jedoch keinen Hinweis [dfine( ‘DISALLOW_FILE_EDIT’, true );] auf das robots.txt File und im root Verzeichnis sehe ich es ebenfalls nicht.
Meine Fragen wären:
– Wäre die Herangehensweise via robots.txt die korrekte?
– Was müsste dann im File enthalten sein?
– Ist das File nur “versteckt” aufgrund von Berechtigungen (HostEurope) oder besteht die Möglichkeit, dass es fehlt. Wenn ja, kann ich es einfach erstellen und via FTP in das root Verzeichnis laden?Für eure Unterstützung wäre ich dankbar.
VG
AlexNovember 28, 2022 at 12:51 am #1374080Hey Proleaks,
Thanks for your patience, as I understand your question you would like to use the robots.txt file to disallow GoogleBot from looking for pages that don’t exist, this is the correct approach and you would upload this file to your server at the root path via FTP. Typically this is not on your server by default, you must create it.
Here is a Free Robots.txt Generator
As I look at your error log above most all of them are in this directory /systemisch-achtsam-loesungsorientiert/tag/ so you could block that directory like this:User-agent: * Disallow: Disallow: /cgi-bin/ Disallow: /systemisch-achtsam-loesungsorientiert/tag/
try the generator and add the directories and files from your log above.
Best regards,
MikeNovember 28, 2022 at 5:27 pm #1374191Hi Mike,
thanks a lot for your quick respons!
I just used Screaming Frog to check the work of my robots.txt file and it seams to work.Best regards,
AlexNovember 28, 2022 at 7:20 pm #1374200 -
AuthorPosts
- You must be logged in to reply to this topic.