WordPress Robots.txt optimization (+ XML Sitemap) – Website traffic, SEO & ranking Booster

Beschrijving

Better Robots.txt maakt een WordPress virtuele robots.txt, helpt je een boost te geven aan je website SEO (indexeringscapaciteiten, Google ranking, etc.) en je laadprestaties -compatibel met Yoast SEO, Google Merchant, WooCommerce en Directory gebaseerde netwerk sites (MULTISITE).

Met Better Robots.txt kun je zelf bepalen welke zoekmachines je site mogen crawlen (of niet), duidelijke instructies geven over wat ze mogen doen (of niet) en een crawl-vertraging definiëren (om je hostingserver te beschermen tegen agressieve scrapers). Better Robots.txt geeft je ook volledige controle over je WordPress robots.txt inhoud via de aangepaste instellingenbox.

Verminder de ecologische voetafdruk van je site en de productie van broeikasgassen (CO2) die inherent is aan het bestaan ervan op het web.

Een kort overzicht:

ONDERSTEUND IN 7 TALEN

Betere Robots.txt plugins zijn vertaald en beschikbaar in: Chinees -汉语/漢語, Engels, Frans – Français, Russisch – русский, Portugees – Portugees – Português, Spaans – Español, Duits – Deutsch.

Wist je dat….Wist je dat….

  • Het robots.txt-bestand is een eenvoudig tekstbestand dat op je webserver wordt geplaatst en dat webcrawlers (zoals Googlebot) vertelt of ze een bestand moeten openen.
  • Het robots.txt-bestand bepaalt hoe spiders van zoekmachines je webpagina’s zien en ermee omgaan;
  • Dit bestand en de bots waar ze interactie mee hebben zijn fundamentele onderdelen van hoe zoekmachines werken;
  • Het eerste waar een crawler van een zoekmachine naar kijkt als hij een pagina bezoekt, is het robots.txt bestand;

De robots.txt is een bron van SEO juice dat gewoon wacht om ontgrendeld te worden. Probeer Better Robots.txt!

Over de Pro versie (extra functies):

1. Boost je inhoud op zoekmachines met je sitemap !

Zorg ervoor dat je pagina’s, artikelen en producten, zelfs de meest recente, in aanmerking worden genomen door zoekmachines!

De Better Robots.txt plugin is gemaakt om te werken met de Yoast SEO plugin (waarschijnlijk de beste SEO plugin voor WordPress websites). Het zal detecteren of je momenteel Yoast SEO gebruikt en of de sitemap functie is geactiveerd. Als dat zo is, dan zal het automatisch instructies toevoegen aan het Robots.txt bestand waarin bots/crawlers gevraagd wordt om je sitemap te lezen en te controleren of je recente wijzigingen in je site hebt aangebracht (zodat zoekmachines de nieuwe inhoud die beschikbaar is kunnen crawlen).

Als je je eigen sitemap wilt toevoegen (of als je een andere SEO plugin gebruikt), dan hoeft je alleen maar je Sitemap-URL te kopiëren en te plakken, en Better Robots.txt zal deze toevoegen aan je WordPress Robots.txt.

2. Bescherm je gegevens en content

Blokkeer slechte bots zodat ze je website niet meer kunnen scrapen en je data kunnen doorverkopen.

De Better Robots.txt plugin helpt je de meeste populaire slechte bots te blokkeren zodat ze jouw data niet meer kunnen crawlen en scrapen.

Als het gaat om dingen die op jouw site crawlen, zijn er goede bots en slechte bots. Goede bots, zoals Google bot, crawlen jouw site om deze te indexeren voor zoekmachines. Anderen crawlen jouw site met minder goede bedoelingen zoals het verwijderen van je content (tekst, prijs, enz.) voor herpublicatie, het downloaden van hele archieven van je site of het extraheren van je afbeeldingen. Sommige bots sloopten zelfs hele websites als gevolg van het intensieve gebruik van breedband.

De Better Robots.txt plugin beschermt je website tegen spiders/scrapers die door Distil Networks als slechte bots worden bestempeld.

3. Verberg & bescherm je backlinks

Voorkom dat concurrenten jouw winstgevende backlinks kunnen identificeren.

Backlinks, ook wel “inkomende links” of “inbound links” genoemd, worden aangemaakt wanneer de ene website naar de andere linkt. De link naar een externe website wordt een backlink genoemd. Backlinks zijn vooral waardevol voor SEO omdat ze een laten zien dat de ene site de andere vertrouwd. Eigenlijk zijn backlinks naar je website zijn een signaal aan zoekmachines dat anderen instaan voor jouw content.

Als veel sites een link naar dezelfde webpagina of website hebben, kunnen zoekmachines concluderen dat de content de moeite waard is om naar te linken, en dus ook de moeite waard om te laten zien op een SERP. Het verdienen van deze backlinks genereert dus een positief effect op de positie of de zichtbaarheid van een site. In de SEM industrie is het heel gebruikelijk voor specialisten om te identificeren waar deze backlinks vandaan komen (concurrenten) om zo de beste ervan te sorteren en hoogwaardige backlinks te genereren voor hun eigen klanten.

Het creëren van zeer rendabele backlinks voor een bedrijf kost veel tijd (tijd + energie + budget) en als je concurrenten ze zo gemakkelijk kunnen identificeren en dupliceren is dat gewoon puur verlies aan efficiëntie.

Better Robots.txt helpt je alle SEO crawlers (aHref, Majestic, Semrush) te blokkeren zodat ze je backlinks niet op kunnen sporen.

4. Vermijd spam backlinks

Bots die de reactie formulieren van je site invullen en je schrijven over over ‘een geweldig artikel’, ‘de informatie is geweldig’, ‘ik hoop dat je binnenkort meer over het onderwerp kunt vertellen’ of zelfs persoonlijke opmerkingen kunt geven, waaronder de naam van de auteur, zijn er legio. Spambots worden steeds intelligenter en helaas kunnen comment spamlinks je backlink profiel echt beschadigen. Better Robots.txt helpt je voorkomen dat deze reacties worden geïndexeerd door zoekmachines.

5. Seo tools

Tijdens het verbeteren van onze plugin hebben we snelkoppelingen toegevoegd aan 2 zeer belangrijke tools (als je bezorgd bent om je ranking in zoekmachines): Google Search Console & Bing Webmaster Tool. Als je ze nog niet gebruikt kun je ze nu je site indexering laten beheren terwijl je je robots.txt optimaliseert! Er werd ook een directe toegang tot een Mass ping tool toegevoegd, waardoor je je links op meer dan 70 zoekmachines kunt pingen.

We hebben ook 4 snelkoppelingen gemaakt met betrekking tot de beste Online SEO Tools, direct beschikbaar op Better Robots.txt SEO PRO. Zodat je, wanneer je maar wilt, nu in staat bent om de laadprestaties van je site te controleren, je SEO-score te analyseren, je huidige positie op SERPs met keywords en traffic te identificeren, en zelfs je hele site te scannen op dode links (404, 503 fouten, ….), rechtstreeks vanuit de plugin.

6. Wees uniek

We dachten dat we een vleugje originaliteit konden toevoegen op Better Robots.txt door een functie toe te voegen waarmee je je WordPress-robots.txt kunt “aanpassen” met je eigen unieke “handtekening”. De meeste grote bedrijven in de wereld hebben hun robots.txt gepersonaliseerd door spreekwoorden (https://www.yelp.com/robots.txt), slogans (https://www.youtube.com/robots.txt) of zelfs tekeningen (https://store.nike.com/robots.txt – onderaan) toe te voegen. En waarom zou jij dat ook niet doen? Daarom hebben we op de instellingenpagina een specifiek gebied ingericht waar je wat je maar wilt kunt schrijven of tekenen (echt) zonder je robots.txt-efficiëntie te beïnvloeden.

7. Voorkom dat robots nutteloze WooCommerce links crawlen

We hebben een unieke functie toegevoegd die het mogelijk maakt om specifieke links (“aan winkelwagentje toevoegen”, “bestellenper”, “fllter”, winkelwagen, account, kassa, ….) te blokkeren zodat zoeksites bepaalde links niet meer kunnen crawlen. De meeste van deze links vereisen veel CPU, geheugen en bandbreedte gebruik (op hosting server) omdat ze niet cacheerbaar zijn en/of “oneindige” crawling loops creëren (terwijl ze nutteloos zijn). Het optimaliseren van je WordPress robots.txt voor WooCommerce als je een online winkel hebt maakt het mogelijk om meer rekenkracht over te hebben voor pagina’s die er echt toe doen en je laadprestaties te verbeteren.

8. Vermijd crawler traps:

D”Crawler traps” zijn een structureel probleem binnen een site dat ervoor zorgt dat crawlers een vrijwel oneindig aantal irrelevante URL’s vinden. In theorie kunnen crawlers vast komen te zitten in een deel van een site en nooit klaar zijn met deze irrelevante URL’s te crawlen. Better Robots.txt helpt crawler traps te voorkomen die het crawler budget schaden en dubbele content veroorzaken.

9. Growth hacking tools

De snelst groeiende bedrijven zoals Amazon, Airbnb en Facebook, hebben allemaal de groei van de breakout gedreven door hun teams op één lijn te brengen met een high velocity/ leerproces. We hebben het over Growth hacking. Growth hacking is een proces van snel experimenteren met en implementeren van marketing- en promotiestrategieën die uitsluitend gericht zijn op efficiënte en snelle bedrijfsgroei. Better Robots.txt biedt een lijst van 150+ tools die online beschikbaar zijn om je groei te versnellen.

10. Robots.txt Post Meta Box voor handmatige uitsluitingen

Deze Post Meta Box maakt het mogelijk om “handmatig” in te stellen of een pagina zichtbaar moet zijn (of niet) op zoekmachines door een speciale “disallow” + “noindex” regel in je WordPress robots.txt toe te voegen. Waarom is het een aanwinst voor jow ranking in de zoekmachines? Gewoon omdat sommige pagina’s niet bedoeld zijn om te worden gecrawld / geïndexeerd. Bedankt pagina’s, landingspagina’s, pagina’s met uitsluitend formulieren zijn nuttig voor bezoekers, maar niet voor crawlers, en je hebt ze niet nodig om zichtbaar te zijn op zoekmachines. Ook moeten sommige pagina’s met dynamische kalenders (voor online boeken) NOOIT toegankelijk zijn voor crawlers, omdat ze de neiging hebben om ze te vangen in oneindige crawling loops die direct van invloed zijn op je crawl-budget (en je ranking).

11. Ads.txt & App-ads.txt crawlability

In order to ensure that ads.txt & app-ads.txt can be crawled by search engines, Better Robots.txt plugin makes sure they are by default allowed in Robots.txt file no matter your configuration. For your information, Authorized Digital Sellers for Web, or ads.txt, is an IAB initiative to improve transparency in programmatic advertising. You can create your own ads.txt files to identify who is authorized to sell your inventory. The files are publicly available and crawlable by exchanges, Supply-Side Platforms (SSP), and other buyers and third-party vendors. Authorized Sellers for Apps, or app-ads.txt, is an extension to the Authorized Digital Sellers standard. It expands compatibility to support ads shown in mobile apps.

Zoals altijd binnenkort meer….

Schermafdrukken

  • Better Robots.txt Settings Page
  • Better Robots.txt Settings Page
  • Better Robots.txt Settings Page
  • Better Robots.txt Settings Page
  • Robots.txt file output

Installatie

Installing manually

  1. Unzip all files to the /wp-content/plugins/better-robots-txt directory
  2. Log into WordPress admin and activate the ‘Better Robots.txt’ plugin through the ‘Plugins’ menu
  3. Go to “Settings > Better Robots.txt” in the left-hand menu to start work on robots.txt file.

FAQ

Better Robots.txt plugin is ingeschakeld, maar waarom kan ik geen veranderingen zien in het robots.txt bestand?

Better Robots.txt maakt een WordPress virtueel robots.txt bestand. Zorg ervoor dat je permalinks zijn ingeschakeld via Instellingen > Permalinks. Als de permalinks werken zorg er dan voor dat er geen fysieke robots.txt bestand op je server staat. Aangezien het niet over een fysiek bestand kan schrijven, moet je verbinding maken met FTP en robots.txt hernoemen of verwijderen uit de hoofdmap van je domein. Het staat meestal in /public_html/ map op cPanel hostings. Als je de hoofdmap van je domein niet kunt vinden, vraag dan je hostingprovider om hulp. Als het probleem aanhoudt na het nemen van deze maatregelen, post het dan in de ondersteuningssectie of stuur een bericht naar support@better-robots.com

Is er een conflict met robots.txt die ik al gebruik?

Als je een fysieke robots.txt op je webhosting server hebt, dan zal deze plugin niet werken. Zoals gezegd, het creëert een WordPress virtueel robots.txt bestand. Volg de stappen in het bovenstaande antwoord als je robots.txt bestand wilt gebruiken met deze plugin.

Hoe kan ik sitemap toevoegen aan mijn WordPress robots.txt bestand?

Deze functie is toegestaan in de versie Better Robots.txt Pro, die automatisch een sitemap toevoegt in het robots.txt-bestand. Het detecteert de sitemap van de Yoast SEO plugin. Als je een andere sitemap plugin gebruikt of een handmatig gegenereerde sitemap dan kun je gewoon de sitemap URL toevoegen in het sitemap invoerveld. Als Yoast XML sitemaps ook zijn ingeschakeld dan moet je deze eerst uitschakelen door naar Yoast Algemene Instellingen > Functies te gaan en de XML Sitemapsfunctie uit te schakelen.

Waarom zou ik de robots.txt optimaliseren?

Waarom niet? Aangezien de robots.txt het allereerste bestand is dat wordt gelezen wanneer jouw site wordt geladen door een browser, waarom zouden crawlers je inhoud niet continu kunnen indexeren? Het simpele feit van het toevoegen van je Sitemap in de Robots.txt is gewoon een kwestie van gezond verstand. Waarom? Heb je je site op Google Search Console geplaatst, heeft je webmaster dit gedaan? Hoe vertel je de crawlers dat je nieuwe content beschikbaar hebt voor indexatie op je site? Als je wilt dat deze content wordt gevonden op zoekmachines (Google, Bing, …), dan moet je deze laten indexeren. Dat is precies wat deze instructie (het toevoegen van de sitemap) tot doel heeft. Nog een laatste punt. De belangrijkste reden waarom deze plugin bestaat is te wijten aan het feit dat 95% van de tijd (op basis van duizenden SEO-analyses), de robots.txt ofwel ontbreekt, leeg of verkeerd begrepen is. Stel je nu voor dat het geactiveerd en volledig functioneel was.

Hoe kan deze plugin een boost geven aan mijn site ranking?

Deze plugin verhoogt de indexeringscapaciteit van je site, wat leidt tot een betere ranking op Google. Hoe ? Nou, het idee van het creëren van deze plugin werd genomen na het doen van honderden SEO optimalisaties op bedrijfs sites. Zoals eerder vermeld had 95% van de geanalyseerde websites geen “geoptimaliseerde” robots.txt-bestand en terwijl we deze sites optimaliseerden, realiseerden we ons dat het alleen al door het aanpassen van de content van dit bestand, deze sites “te openen” waren (op basis van dagelijkse SEMrushanalyses). Aangezien we gewend waren om in 2 stappen (perioden) te werken, genereerde deze eenvoudige aanpassing al een aanzienlijke impact op Google Ranking, en dit nog voordat we begonnen met het grondig aanpassen van de content, de site arborescentie of META Data. Hoe meer je zoekmachines helpt bij het begrijpen van je website, hoe beter je helpt bij het verkrijgen van betere resultaten op SERPs.

Hoe test en valideer je jouw robots.txt?

Terwijl je de inhoud van je robots.txt kunt bekijken door naar de robots.txt URL te navigeren, is de robots.txt Tester van de Google zoekconsole de beste manier om dit te testen en te valideren.

Log in op je Google Search Console Account. Klik op robots.txt Tester, te vinden onder Crawl opties. Klik op de knop Test.

Als alles in orde is, zal de Test-knop groen worden en het label zal veranderen in TOEGESTAAN. Als er een probleem is, wordt de lijn die een weigering veroorzaakt gemarkeerd.

Wat is een virtueel robots.txt bestand?

WordPress gebruikt standaard een virtueel robots.txt bestand. Dit betekent dat je het bestand niet direct kunt bewerken of vinden in de root van je directory.

De enige manier om de inhoud van het bestand te bekijken, is door https://www.yourdomain.com/robots.txt in je browser te typen.

De standaardwaarden van WordPress robots.txt zijn:

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Wanneer je de optie “Ontmoedig zoekmachines om deze site te indexeren” inschakelt onder Zoekmachine Zichtbaarheidsinstellingen, wordt de robots.txt. de robots.txt:

User-agent: *
Disallow: /

Wat in principe alle crawlers de toegang tot de site blokkeert.

Waarom is Robots.txt belangrijk?

Er zijn 3 belangrijke redenen waarom je een robots.txt bestand zou willen gebruiken.

  • Blokkeer niet-openbare pagina’s: Soms heb je pagina’s op je site die je niet geïndexeerd wilt hebben. Je kunt bijvoorbeeld een staging-versie van een pagina hebben. Of een inlogpagina. Deze pagina’s moeten bestaan. Maar je wilt niet dat er willekeurige mensen op terechtkomen. Dit is een geval waarin je robots.txt zou gebruiken om deze pagina’s te blokkeren voor zoekmachine crawlers en bots.
  • Maximaliseer Crawl Budget: Als je moeite hebt om al je pagina’s geïndexeerd te krijgen, heb je misschien een crawl budget probleem. Door onbelangrijke pagina’s te blokkeren met robots.txt, kan Googlebot meer van je crawl budget besteden aan de pagina’s die er echt toe doen.
  • Voorkomt het indexeren van bronnen: Het gebruik van meta-richtlijnen kan net zo goed werken als Robots.txt om te voorkomen dat pagina’s geïndexeerd worden. Meta-richtlijnen werken dan weer niet zo goed voor multimediabronnen, zoals PDF’s en afbeeldingen. Dat is waar robots.txt om de hoek komt kijken.

Je kunt controleren hoeveel pagina’s je hebt geïndexeerd in de Google Search Console.

Als het aantal pagina’s overeenkomt met het aantal pagina’s dat je wilt indexeren hoef je je niet bezig te houden met een Robots.txt-bestand.

Maar als dat aantal hoger is dan je had verwacht (en je ziet geïndexeerde URL’s die niet geïndexeerd moeten worden), dan is het tijd om een robots.txt-bestand voor je site te maken.

Robots.txt vs. Meta Directives

Waarom zou je robots.txt gebruiken als je pagina’s op paginaniveau kunt blokkeren met de “noindex” meta tag?

Zoals eerder vermeld, is de noindex tag lastig te implementeren op multimediabronnen, zoals video’s en PDF’s.

Als je duizenden pagina’s hebt die je wilt blokkeren, is het soms ook gemakkelijker om het hele gedeelte van die site te blokkeren met robots.txt in plaats van handmatig een noindex tag toe te voegen aan elke pagina.

Er zijn ook gevallen waarin je geen crawl-budget op Google wilt verspillen door op pagina’s met de noindex tag te landen.

Belangrijke dingen over robots.txt

  • Robots.txt moet in de hoofdmap staan, d.w.z. domain.com/robots.txt.
  • Elk subdomein heeft zijn eigen robots.txt nodig (sub1.domain.com, sub2.domain.com, …. ), terwijl multisites slechts één robot.txt nodig hebben (domain.com/multi1, domain.com/multi2, ….).
  • Sommige crawlers kunnen robots.txt negeren.
  • URL’s en het robots.txt-bestand zijn hoofdlettergevoelig.
  • Crawl-vertraging wordt niet gehonoreerd door Google (omdat het zijn eigen crawl-budget heeft), maar je kunt de crawl-instellingen beheren in Google Search Console.
  • Valideer je robots.txt bestand in Google Search Console en Bing Webmaster Tools.
  • Blokkeer het crawlen niet om dubbele inhoud te voorkomen. Pagina’s die worden omgeleid, mogen niet worden geweigerd. Crawlers zullen niet in staat zijn om de omleiding te volgen.
  • De maximale grootte voor een robots.txt bestand is 500 KB.

PS: Pagup recommends Site kit by Google plugin for insights & SEO performance.

Beoordelingen

29 maart 2023
My site has gone to the top of some search engines Excellent plug in, my site has increased to near the top in most of the search engines.
Lees alle 98 beoordelingen

Bijdragers & ontwikkelaars

“WordPress Robots.txt optimization (+ XML Sitemap) – Website traffic, SEO & ranking Booster” is open source software. De volgende personen hebben bijgedragen aan deze plugin.

Bijdragers

“WordPress Robots.txt optimization (+ XML Sitemap) – Website traffic, SEO & ranking Booster” is vertaald in 3 talen. Dank voor de vertalers voor hun bijdragen.

Vertaal “WordPress Robots.txt optimization (+ XML Sitemap) – Website traffic, SEO & ranking Booster” naar jouw taal.

Interesse in ontwikkeling?

Bekijk de code, haal de SVN repository op, of abonneer je op het ontwikkellog via RSS.

Changelog

1.0.0

  • Initial release.

1.0.1

  • fixed plugin directory url issue
  • some text improvements

1.0.2

  • fixed some minor issues with styling
  • improved text and translation

1.1.0

  • added some major improvements
  • allow/off option changed with allow/disallow/off
  • improved overall text and french translation

1.1.1

  • fixed a bug and improved code

1.1.2

  • added new feature “Spam Backlink Blocker”

1.1.3

  • fixed a bug

1.1.4

  • added new “personalize your robots.txt” feature to add custom signature
  • added recommended seo tools to improve search engine optimization

1.1.5

  • added feature to detect physical robots.txt file and delete it if server permissions allows

1.1.6

  • added russian and chinese (simplified) languages
  • fixed bug causing redirection to better robots.txt settings page upon activating other plugins

1.1.7

  • added new feature: Top plugins for SEO performance
  • fixed plugin notices issue to dismiss for define period of time after being closed
  • fixed stylesheet issue to get proper updated file after plugin update (cache buster)
  • added spanish and portuguese languages

1.1.8

  • added new feature: xml sitemap detection
  • fixed translations

1.1.9

  • added new feature: loading performance for woocommerce

1.1.9.1

  • fixed a bug in disallow rules for woocommerce

1.1.9.2

  • boost your site with alt tags

1.1.9.3

  • fixed readability issues

1.1.9.4

  • fixed default robots.txt file issue upon plugin activation for first time
  • fixed php error upon saving settings and permalinks
  • refactored code

1.1.9.5

  • added clean-param for yandex bot
  • ask backlinks feature for pro users
  • avoid crawler traps feature for pro users
  • improved default robots.txt rules

1.1.9.6

  • added 150+ growth hacking tools
  • fixed layout bug
  • updated default rules

1.2.0

  • Added Post Meta Box to Disable Indivdual post, pages and products (woocommerce pro only). It will add Disallow and Noindex rule in robots.txt for any page you choose to disallow from post meta box options.

1.2.1

  • Added multisite feature for directory based network sites (pro only). it can duplicate all default rules, yoast sitemap, woocommerce rules, bad bots, pinterest bot blocker, backlinks blocker etc with a single click for all directory based network sites.
  • Added version timestamp for wp_register_script ‘assets/rt-script.js’

1.2.2

  • Fixed some bugs creating error in google search console
  • Text improvement

1.2.3

  • Added “Hide your robots.txt from SERPs” feature
  • Text improvements

1.2.4

  • Fixed a bug
  • Text improvements

1.2.5

  • Fixed crawl-delay issue
  • Updated translations

1.2.5.1

  • Fixed a minor issue

1.2.6

  • Security patched in freemius sdk

1.2.6.1

  • Fixed Multisite Issue for pro users

1.2.6.2

  • Fixed Yoast sitemap issue for Multisite users

1.2.6.3

  • Fixed some text

1.2.7

  • Added Baidu/Sogou/Soso/Youdao – Chinese search engines features for pro users
  • Added social media crawl feature for pro users

1.2.8

  • Notification will be disabled for 4 months. Fixed some other minor stuff

1.2.9.2

  • Updated Freemius SDK v2.3.0
  • BIGTA recommendation

1.2.9.3

  • Fixed Undefined index error while saving MENUS for some sites
  • Removed “noindex” rule for individual posts as Google will stop supprting it from Sep 01 2019

1.3.0

  • Added 5 new rules to default config. Removed 4 old default rules which were cuasing some issues with WPML
  • Added a search rule to Avoid crawling traps
  • Added several new rules to Spam Backlink Blocker
  • Fixed security issues

1.3.0.1

  • VidSEO recommendation

1.3.0.2

  • Fixed some security issues
  • Added new rules to Backlink Protector (Pro only)
  • Multisite notification will be disabled permenantly once dismissed

1.3.0.3

  • Fixed php notice (in php log) for $host_url variable

1.3.0.4

  • Fixed php notice (in php log) for $active_tab variable
  • Fixed some typos

1.3.0.5

  • Added option to Be part of our worldwide Movement against CoronaVirus (Covid-19)
  • Fixed several php undefined index notices (in php log) related to Step 7 and 8 options

1.3.0.6

  • 👌 IMPROVE: Updated freemius to latest version 2.3.2
  • 🐛 FIX: Some minor issues

1.3.0.7

  • 🔥 NEW: WP Google Street View promotion
  • 🐛 FIX: Some minor text issues

1.3.1.0

  • 👌 IMPROVE: Admin Notices are set to permenantly dismissed based on user.
  • 👌 IMPROVE: Top level menu for Better Robots.txt Settings
  • 🐛 FIX: Styling conflict with Norebro Theme.
  • 🐛 FIX: Undefined variables php errors for some options

1.3.2.0

  • 🐛 FIXED: XSS vulnerability.
  • 🐛 FIX: Non-static method errors
  • 👌 IMPROVE: Tested up to WordPress v5.5

1.3.2.1

  • 🐛 FIXED: Call to undefined method error.

1.3.2.2

  • 👌 IMPROVE: Update Freemius to v2.4.1

1.3.2.3

  • 👌 IMPROVE: Tested up to WordPress v5.6
  • 🐛 FIX: Get Pro URL

1.3.2.4

  • 👌 IMPROVE: Added some more rules for Woocommerce performance
  • 👌 IMPROVE: Update Freemius to v2.4.2

1.3.2.5

  • 🔥 NEW: Meta Tags for SEO promotion

1.4.0

  • 👌 IMPROVE: Refactored code to MVC
  • 👌 IMPROVE: New clean design
  • 👌 IMPROVE: Many small improvements

1.4.0.1

  • 🐛 FIX: Added trailing backslash for using trait

1.4.1

  • 🔥 NEW: Search engine visibility feature (Pro version)
  • 🔥 NEW: Image Crawlability feature (Pro version)

1.4.1.1

  • 🐛 FIX: Sitemap issue

1.4.2

  • 🐛 FIX: Bugs and improvements
  • 🔥 NEW: Option to add default WordPress Sitemap (Pro Version)
  • 🔥 NEW: Option to add All in One SEO Sitemap (Pro Version)

1.4.3

  • 🐛 FIX: Text issues

1.4.4

  • 🐛 FIX: Security fix

1.4.5

  • 🐛 FIX: PHP warning undefined index

1.4.6

  • 🐛 FIX: SECURITY PATCH. Verify nonce for CSRF attack.
  • 🐛 FIX: PHP 8.2 warning undefined index