Viewing 4 posts - 1 through 4 (of 4 total)
  • Author
    Posts
  • #1374004

    Hallo,
    seit ich letzte Woche mein Theme auf Enfold umgestellt habe, bekomme ich seitens Google massive Fehlermeldungen in Bezug auf die Seitenindexierung, die mit dem alten Themen nicht vorhanden waren:

    Screenshot

    In diversen Foren fand ich den Hinweis, die robots.txt File entsprechen anzupassen, um bestimmte Zugriffe einzugrenzen. Leider finde ich in der config.php jedoch keinen Hinweis [dfine( ‘DISALLOW_FILE_EDIT’, true );] auf das robots.txt File und im root Verzeichnis sehe ich es ebenfalls nicht.

    Meine Fragen wären:
    – Wäre die Herangehensweise via robots.txt die korrekte?
    – Was müsste dann im File enthalten sein?
    – Ist das File nur “versteckt” aufgrund von Berechtigungen (HostEurope) oder besteht die Möglichkeit, dass es fehlt. Wenn ja, kann ich es einfach erstellen und via FTP in das root Verzeichnis laden?

    Für eure Unterstützung wäre ich dankbar.

    VG
    Alex

    • This topic was modified 2 years ago by Proleaks.
    • This topic was modified 2 years ago by Proleaks.
    • This topic was modified 2 years ago by Proleaks.
    • This topic was modified 2 years ago by Proleaks.
    #1374080

    Hey Proleaks,
    Thanks for your patience, as I understand your question you would like to use the robots.txt file to disallow GoogleBot from looking for pages that don’t exist, this is the correct approach and you would upload this file to your server at the root path via FTP. Typically this is not on your server by default, you must create it.
    Here is a Free Robots.txt Generator
    As I look at your error log above most all of them are in this directory /systemisch-achtsam-loesungsorientiert/tag/ so you could block that directory like this:

    User-agent: *
    Disallow: 
    Disallow: /cgi-bin/
    Disallow: /systemisch-achtsam-loesungsorientiert/tag/

    try the generator and add the directories and files from your log above.

    Best regards,
    Mike

    #1374191

    Hi Mike,

    thanks a lot for your quick respons!
    I just used Screaming Frog to check the work of my robots.txt file and it seams to work.

    Best regards,
    Alex

    #1374200

    Hi,

    Great, I’m glad that you found a solution, and thanks for the update. Please let us know if you should need any further help on the topic, or if we can close it.

    Best regards,
    Rikard

Viewing 4 posts - 1 through 4 (of 4 total)
  • You must be logged in to reply to this topic.