Boj s duplicitními stránkami

Majitel nemusí mít podezření, že některé stránky na jeho webu mají kopie - nejčastěji se to stává. Stránky se otevírají, obsahově je vše v pořádku, ale když si dáte pozor, všimnete si, že u stejného obsahu jsou adresy různé. Co to znamená? Pro živé uživatele absolutně nic, protože je zajímají informace na stránkách, ale bez duše vyhledávače vnímat takový jev úplně jinak – pro ně úplně různé stránky se stejným obsahem.

Jsou duplicitní stránky škodlivé? Pokud si tedy běžný uživatel ani nemůže všimnout přítomnosti duplikátů na vašem webu, vyhledávače to okamžitě určí. Jakou reakci od nich můžete čekat? Protože jsou kopie ve skutečnosti považovány za různé stránky, obsah na nich přestává být jedinečný. A to už negativně ovlivňuje pořadí.

Přítomnost duplikátů také rozmazává SEO, které se optimalizátor snažil zaměřit na vstupní stránku. Kvůli duplicitám nemusí být na stránce, na kterou to chtěli přenést. Tedy účinek vnitřní propojení a externí odkazy se mohou mnohonásobně snížit.

V drtivé většině případů jsou na vině duplikáty – kvůli nesprávnému nastavení a nedostatečné pozornosti optimalizátoru se generují čisté kopie. Mnoho CMS, jako je Joomla, s tím hřeší. Je těžké najít univerzální recept na vyřešení problému, ale můžete zkusit použít některý z pluginů pro odstranění kopií.

K výskytu neostrých duplikátů, ve kterých není zcela totožný obsah, dochází většinou vinou webmastera. Takové stránky se často nacházejí na stránkách internetového obchodu, kde se stránky s produktovými kartami liší pouze v několika větách s popisem a veškerý další obsah, skládající se z průřezových bloků a dalších prvků, je stejný.

Mnoho odborníků tvrdí, že malý počet duplikátů nepoškodí stránku, ale pokud jich je více než 40–50 %, mohou zdroj během propagace čekat vážné potíže. V každém případě, i když není tolik kopií, stojí za to postarat se o jejich likvidaci, takže se zaručeně zbavíte problémů s duplikáty.

Vyhledejte kopírovací stránky Existuje několik způsobů, jak najít duplicitní stránky, ale první věcí, kterou musíte udělat, je přejít do několika vyhledávačů a zjistit, jak vidí váš web – stačí porovnat počet stránek v indexu každého z nich. Je to docela jednoduché, aniž byste se uchýlili k jakýmkoli dalším prostředkům: v Yandex nebo Google stačí do vyhledávacího pole zadat host:yoursite.ru a podívat se na počet výsledků.




Pokud po takové jednoduché kontrole bude číslo velmi odlišné, 10-20krát, pak to s určitou mírou pravděpodobnosti může znamenat obsah duplikátů v jednom z nich. Kopírování stránek možná za takový rozdíl nemůže, ale přesto to dává podnět k dalšímu důkladnějšímu hledání. Pokud je web malý, můžete ručně vypočítat počet skutečných stránek a poté porovnat s ukazateli z vyhledávače.

Ve výsledcích vyhledávače můžete vyhledávat duplicitní stránky podle adresy URL. Pokud musí mít CNC, pak stránky s URL s nejasnými znaky, jako je "index.php?s=0f6b2903d", budou okamžitě vyřazeny z obecného seznamu.

Dalším způsobem, jak zjistit přítomnost duplikátů pomocí vyhledávačů, je vyhledávání v textových fragmentech. Postup takové kontroly je jednoduchý: do vyhledávacího pole musíte zadat textový fragment 10-15 slov z každé stránky a poté analyzovat výsledek. Pokud jsou ve výsledcích vyhledávání dvě nebo více stránek, pak existují kopie, ale pokud je pouze jeden výsledek, pak tato stránka nemá žádné duplikáty a nemusíte si dělat starosti.

Je logické, že pokud se web skládá z velkého počtu stránek, může se taková kontrola pro optimalizátora změnit v nemožnou rutinu. Chcete-li minimalizovat časové náklady, můžete použít speciální programy. Jedním z takových nástrojů, který pravděpodobně znají zkušení profesionálové, je program Xenu`s Link Sleuth.


Chcete-li stránku zkontrolovat, musíte ji otevřít nový projekt, z nabídky vyberte "Soubor" "Zkontrolovat URL", zadejte adresu a klikněte na "OK". Poté program začne zpracovávat všechny adresy URL webu. Po dokončení kontroly je potřeba přijatá data exportovat do libovolného pohodlný editor a začněte hledat duplikáty.

Kromě výše uvedených metod obsahuje sada nástrojů panelů Yandex.Webmaster a Google Webmaster Tools nástroje pro kontrolu indexování stránek, které lze použít k vyhledávání duplikátů.

Metody řešení problémů Po nalezení všech duplikátů bude nutné je odstranit. To lze také provést několika způsoby, ale každý konkrétní případ potřebuje svou vlastní metodu, je možné, že je budete muset použít všechny.

  • Kopírovat stránky lze ručně smazat, ale tento způsob je vhodnější pouze pro ty duplikáty, které byly vytvořeny ručně kvůli neuváženosti webmastera.
  • Přesměrování 301 je skvělé pro lepení kopií stránek, jejichž adresy URL se liší přítomností a nepřítomností www.
  • Řešení problému s duplikáty pomocí kanonické značky lze aplikovat na fuzzy kopie. Například u kategorií zboží v internetovém obchodě, které mají duplikáty lišící se řazením podle různých parametrů. Také canonical je vhodný pro tisknutelné verze stránek a v jiných podobných případech. Aplikuje se zcela jednoduše - pro všechny kopie je uveden atribut rel="canonical", nikoli však pro hlavní stránku, která je nejrelevantnější. Kód by měl vypadat nějak takto: link rel="canonical" href="http://yoursite.ru/stranica-kopiya"/ a měl by být ve značce head.
  • V boji proti duplikátům může pomoci nastavení souboru robots.txt. Direktiva Disallow vám umožní zablokovat přístup k duplikátům pro vyhledávací roboty. Více o syntaxi tohoto souboru si můžete přečíst v našem mailing listu.

Majitel nemusí mít podezření, že některé stránky na jeho webu mají kopie - nejčastěji se to stává. Stránky se otevírají, jejich obsah je v pořádku, ale pokud si dáte pozor jen na URL, všimnete si, že se stejným obsahem jsou adresy různé. Co to znamená? Pro živé uživatele absolutně nic, protože je zajímají informace na stránkách, ale bezduché vyhledávače tento fenomén vnímají úplně jinak - pro ně jsou to úplně jiné stránky se stejným obsahem.

Jsou duplicitní stránky škodlivé?

Pokud si tedy běžný uživatel ani nemůže všimnout přítomnosti duplikátů na vašem webu, vyhledávače to okamžitě určí. Jakou reakci od nich můžete čekat? Protože vyhledávací roboti ve skutečnosti vidí kopie jako různé stránky, obsah na nich přestává být jedinečný. A to už negativně ovlivňuje pořadí.

Přítomnost duplikátů také stírá odkazovou šťávu, kterou se optimalizátor snažil zaměřit na vstupní stránku. Kvůli duplicitám nemusí být na stránce, na kterou to chtěli přenést. To znamená, že účinek interních a externích odkazů se může mnohonásobně snížit.

V drtivé většině případů za výskyt duplicit může CMS – kvůli nesprávnému nastavení a nedostatku náležité pozornosti optimalizátoru se generují čisté kopie. Mnoho CMS, jako je Joomla, s tím hřeší. Je těžké najít univerzální recept na vyřešení problému, ale můžete zkusit použít některý z pluginů pro odstranění kopií.

K výskytu neostrých duplikátů, ve kterých není zcela totožný obsah, dochází většinou vinou webmastera. Takové stránky se často nacházejí na stránkách internetového obchodu, kde se stránky s produktovými kartami liší pouze v několika větách s popisem a veškerý další obsah, skládající se z průřezových bloků a dalších prvků, je stejný.

Mnoho odborníků tvrdí, že malý počet duplikátů nepoškodí stránku, ale pokud jich je více než 40–50 %, mohou zdroj během propagace čekat vážné potíže. V každém případě, i když není tolik kopií, stojí za to postarat se o jejich likvidaci, takže se zaručeně zbavíte problémů s duplikáty.

Vyhledejte kopírovací stránky

Existuje několik způsobů, jak najít duplicitní stránky, ale první věcí, kterou musíte udělat, je přejít do několika vyhledávačů a zjistit, jak vidí váš web – stačí porovnat počet stránek v indexu každého z nich. Je to docela jednoduché, aniž byste se uchýlili k jakýmkoli dalším prostředkům: v Yandex nebo Google stačí do vyhledávacího pole zadat host:yoursite.ru a podívat se na počet výsledků.

Pokud po takové jednoduché kontrole bude číslo velmi odlišné, 10-20krát, pak to s určitou mírou pravděpodobnosti může znamenat obsah duplikátů v jednom z nich. Kopírování stránek možná za takový rozdíl nemůže, ale přesto to dává podnět k dalšímu důkladnějšímu hledání. Pokud je web malý, můžete ručně vypočítat počet skutečných stránek a poté porovnat s ukazateli z vyhledávačů.

Ve výsledcích vyhledávače můžete vyhledávat duplicitní stránky podle adresy URL. Pokud musí mít CNC, pak stránky s URL s nejasnými znaky, jako je "index.php?s=0f6b2903d", budou okamžitě vyřazeny z obecného seznamu.

Dalším způsobem, jak zjistit přítomnost duplikátů pomocí vyhledávačů, je vyhledávání v textových fragmentech. Postup takové kontroly je jednoduchý: do vyhledávacího pole musíte zadat textový fragment 10-15 slov z každé stránky a poté analyzovat výsledek. Pokud jsou ve výsledcích vyhledávání dvě nebo více stránek, pak existují kopie, ale pokud je pouze jeden výsledek, pak tato stránka nemá žádné duplikáty a nemusíte si dělat starosti.

Je logické, že pokud se web skládá z velkého počtu stránek, může se taková kontrola pro optimalizátora změnit v nemožnou rutinu. Chcete-li minimalizovat časové náklady, můžete použít speciální programy. Jedním z takových nástrojů, který pravděpodobně znají zkušení profesionálové, je program Xenu`s Link Sleuth.

Chcete-li stránku zkontrolovat, musíte otevřít nový projekt výběrem "Soubor" "Zkontrolovat URL" z nabídky, zadat adresu a kliknout na "OK". Poté program začne zpracovávat všechny adresy URL webu. Na konci kontroly je potřeba přijatá data exportovat do libovolného pohodlného editoru a začít hledat duplikáty.

Kromě výše uvedených metod obsahuje sada nástrojů panelů Yandex.Webmaster a Google Webmaster Tools nástroje pro kontrolu indexování stránek, které lze použít k vyhledávání duplikátů.

Metody řešení problémů

Po nalezení všech duplikátů bude nutné je odstranit. To lze také provést několika způsoby, ale každý konkrétní případ potřebuje svou vlastní metodu, je možné, že je budete muset použít všechny.

Kopírovat stránky lze ručně smazat, ale tento způsob je vhodnější pouze pro ty duplikáty, které byly vytvořeny ručně kvůli neuváženosti webmastera.

Přesměrování 301 je skvělé pro lepení kopií stránek, jejichž adresy URL se liší přítomností a nepřítomností www.

Řešení problému s duplikáty pomocí kanonické značky lze aplikovat na fuzzy kopie. Například u kategorií zboží v internetovém obchodě, které mají duplikáty lišící se řazením podle různých parametrů. Také canonical je vhodný pro tisknutelné verze stránek a v jiných podobných případech. Aplikuje se zcela jednoduše - pro všechny kopie je uveden atribut rel="canonical", nikoli však pro hlavní stránku, která je nejrelevantnější. Kód by měl vypadat nějak takto: link rel="canonical" href="http://yoursite.ru/stranica-kopiya"/ a měl by být ve značce head.

V boji proti duplikátům může pomoci nastavení souboru robots.txt. Direktiva Disallow vám umožní zablokovat přístup k duplikátům pro vyhledávací roboty. Více o syntaxi tohoto souboru si můžete přečíst v čísle 64 našeho mailing listu.

závěry

Pokud uživatelé vnímají duplikáty jako jednu stránku s různými adresami, pak pro pavouky jde o různé stránky s duplicitním obsahem. Kopírování stránek je jedním z nejčastějších úskalí, se kterým se začátečníci nemohou obejít. Jejich přítomnost ve velkém počtu na propagované stránce je nepřijatelná, protože vytvářejí vážné překážky pro vstup do TOP.

Důvodem napsání tohoto článku bylo další volání účetní s panikou před podáním přiznání k DPH. V posledním čtvrtletí jsem strávil spoustu času čištěním duplicitních protistran. A opět jsou stejné a nové. Kde?

Rozhodl jsem se věnovat čas řešení příčiny, nikoli následku. Situace s je relevantní především pro nakonfigurované automatické nahrávání prostřednictvím výměnných plánů z řídicí program(v mém případě UT 10.3) účetnímu oddělení podniku (v mém případě 2.0).

Před několika lety byly tyto konfigurace nainstalovány a byla nakonfigurována automatická výměna mezi nimi. Tváří v tvář problému zvláštnosti udržování adresáře protistran obchodním oddělením, které začalo z toho či onoho důvodu vytvářet duplicitní protistrany (se stejným DIČ / KPP / Název) (rozptýlily stejnou protistranu do různých skupin). Účetní oddělení vyjádřilo své "fí" a rozhodlo - je nám jedno, co tam mají, spojte karty při načítání do jedné. Musel jsem zasahovat do procesu předávání předmětů burzovními pravidly. Odstranili jsme vyhledávání podle interního identifikátoru protistran a ponechali vyhledávání podle TIN + KPP + Jméno. I zde však vyplula na povrch jejich úskalí v podobě milovníků přejmenovávání jmen protistran (následkem toho vznikají v BP duplikáty samotnými pravidly). Všichni jsme se sešli, diskutovali, rozhodovali, přesvědčili, že dvojky jsou v UT nepřijatelné, odstranili jsme je, vrátili se ke standardním pravidlům.

Ale po "česání" duplikátů v UT a v BP byly vnitřní identifikátory mnoha protistran odlišné. A protože standardní burzovní pravidla vyhledávají objekty výhradně podle interního identifikátoru, dorazil nový protějšek protistrany s další částí dokladů v BP (pokud se tyto identifikátory lišily). Univerzální výměna dat XML by však nebyla univerzální, kdyby se tento problém nedal obejít. Protože Standardními prostředky nelze změnit identifikátor existujícího objektu, pak tuto situaci můžete obejít pomocí speciálního informačního registru „Korespondence objektů k výměně“, který je dostupný ve všech standardních konfiguracích od 1C.

Aby se předešlo novým duplicitám, algoritmus pro čištění duplikátů byl následující:

1. V BP pomocí zpracování „Vyhledání a výměna duplicitních prvků“ (typické, lze jej převzít z konfigurace Trade Management nebo na disku ITS, případně vybrat nejvhodnější z mnoha variant na samotném Infostartu ) Najdu duplikát, určím správný prvek, kliknu na provést náhradu.

2. Získám interní identifikátor jediného (po výměně) objektu našeho dvojníka (nakreslil jsem pro to speciálně jednoduché zpracování, aby se interní identifikátor automaticky zkopíroval do schránky).

3. Otevřu v UT registr "Korespondence předmětů k výměně", provedu výběr pomocí vlastního odkazu.

Duplikáty stránek webu, jejich vliv na optimalizace pro vyhledávače. Manuální a automatizovanými způsoby detekce a odstranění duplicitních stránek.

Vliv duplikátů na propagaci webu

Přítomnost duplikátů negativně ovlivňuje hodnocení webu. Jak bylo uvedeno výše, vyhledávače vidí původní stránku a její duplikát jako dvě samostatné stránky. Obsah duplikovaný na jiné stránce již není jedinečný. Kromě toho se ztratí váha odkazu duplikované stránky, protože odkaz se nemusí přenést na cílovou stránku, ale na její duplikát. To platí pro interní i externí odkazy.

Podle některých webmasterů malý počet duplicitních stránek obecně nezpůsobí vážné poškození webu, ale pokud se jejich počet blíží 40-50% celkového objemu webu, jsou nevyhnutelné vážné potíže s propagací.

Důvody duplikátů

Nejčastěji se duplikáty objevují v důsledku nesprávného nastavení jednotlivých CMS. Interní skripty enginu začnou fungovat nesprávně a generují kopie stránek webu.

Známý je i fenomén fuzzy duplikátů – stránek, jejichž obsah je pouze částečně identický. K takovým duplicitám dochází nejčastěji vinou samotného webmastera. Tento jev je typický pro internetové obchody, kde jsou stránky produktových karet sestaveny podle stejné šablony a nakonec se od sebe liší jen několika řádky textu.

Metody pro hledání duplicitních stránek

Existuje několik způsobů, jak zjistit duplicitní stránky. Můžete se obrátit na vyhledávače: za tímto účelem byste na Google nebo Yandex měli do vyhledávacího pole zadat příkaz jako „site:sitename.ru“, kde sitename.ru je doména vašeho webu. Vyhledávač vydá všechny indexované stránky webu a vaším úkolem bude odhalit duplikáty.

Existuje další stejně jednoduchý způsob: vyhledávání v textových fragmentech. Chcete-li vyhledávat tímto způsobem, musíte do vyhledávacího pole přidat malý kousek textu z vašeho webu, 10–15 znaků. Pokud jsou ve výsledcích vyhledávání pro hledaný text dvě nebo více stránek vašeho webu, nebude těžké odhalit duplikáty.

Tyto metody jsou však vhodné pro weby sestávající z malého počtu stránek. Pokud má web několik set nebo dokonce tisíce stránek, pak se ruční hledání duplikátů a optimalizace webu jako celku stává nemožným úkolem. Pro takové účely tam speciální programy, například jedním z nejběžnějších je Xenu`s Link Sleuth.

Kromě toho existují speciální nástroje pro kontrolu stavu indexování v panelech Google Webmaster Tools a Yandex.Webmaster. Jsou také v módě používat k detekci duplikátů.

Metody pro odstranění duplicitních stránek

Eliminovat ne požadované stránky lze také provést několika způsoby. Pro každý konkrétní případ je vhodná jiná metoda, ale nejčastěji se při optimalizaci webu používají v kombinaci:

  • ruční mazání duplikátů - vhodné, pokud byly všechny nepotřebné také detekovány ručně;
  • lepení stránek pomocí přesměrování 301 – vhodné, pokud se duplikáty liší pouze nepřítomností a přítomností „www“ v URL;
  • použití tagu „canonical“ je vhodné v případě fuzzy duplicit (například výše zmíněná situace s produktovými kartami v internetovém obchodě) a implementuje se zadáním kódu jako „link rel="canonical" href=" http://sitename.ru/ stranica-kopiya"/" v hlavičce duplicitních stránek;
  • správné nastavení souboru robots.txt - pomocí direktivy "Disallow" můžete zakázat duplicitní stránky pro indexování vyhledávači.

Závěr

Vzhled duplicitních stránek se proto může stát vážnou překážkou při optimalizaci webu a jeho umístění na přední místa tento problém je třeba řešit v rané fázi.

Duplicitní stránky na webech nebo blozích odkud pocházejí a jaké problémy mohou způsobit.
To je to, o čem budeme mluvit v tomto příspěvku, pokusíme se s tímto fenoménem vypořádat a najít způsoby, jak minimalizovat potenciální potíže, které nám duplicitní stránky na webu mohou přinést.

Pokračujme tedy.

Co jsou duplicitní stránky?

Duplicitní stránky na jakémkoli webovém zdroji znamená přístup ke stejným informacím na různých adresách. Takové stránky se také nazývají interní duplikáty webu.

Pokud jsou texty na stránce zcela totožné, pak se takové duplikáty nazývají úplné nebo jasné. S částečnou shodou duplikáty se nazývají neúplné nebo neostré.

Neúplné záběry- to jsou stránky kategorií, stránky se seznamem produktů a podobné stránky obsahující oznámení materiálů webu.

Duplikáty celé stránky- jedná se o tištěné verze, verze stránek s různými příponami, stránky archivů, vyhledávání na webu, stránky s komentáři a tak dále.

Zdroje duplicitních stránek.

Na tento moment většina duplicitních stránek se generuje, když pomocí moderního CMS- redakční systémy, také se jim říká site engine.

Toto a WordPress a Joomla a DLE a další populární CMS. Tento jev vážně zatěžuje optimalizátory webových stránek a webmastery a způsobuje jim další potíže.

V internetových obchodech duplikáty se mohou objevit při zobrazení zboží seřazeného podle různých detailů (výrobce produktu, účel produktu, datum výroby, cena atd.).

Musíme také pamatovat na notoricky známé předpona WWW a rozhodnout, zda jej použít v názvu domény při vytváření, vývoji, propagaci a propagaci webu.

Jak vidíte, zdroje duplikátů mohou být různé, uvedl jsem pouze ty hlavní, ale všechny jsou odborníkům dobře známé.

Duplicitní stránky, negativní.

Navzdory skutečnosti, že mnozí nevěnují mnoho pozornosti vzhledu duplikátů, tento jev může způsobit vážné problémy. problémy s propagací webových stránek.

Vyhledávač může zvážit duplikáty jako spam a v důsledku toho vážně snížit pozici těchto stránek i webu jako celku.

Při propagaci stránek s odkazy může nastat následující situace. V určitém okamžiku bude vyhledávač považovat za nejvíce relevantní duplicitní stránku, a ne ten, který propagujete pomocí odkazů a veškeré vaše úsilí a náklady budou zbytečné.

Ale jsou lidé, kteří se snaží použijte dvojnásobek k budování hmotnosti na požadované stránky, například hlavní stránku nebo jakoukoli jinou.

Metody řešení duplicitních stránek

Jak se vyhnout duplicitám nebo jak anulovat záporné body když se objeví?
A obecně, stojí za to nějak bojovat nebo dát vše na milost a nemilost vyhledávačům. Ať na to přijdou sami, protože jsou tak chytří.

Pomocí souboru robots.txt

Robots.txt je soubor umístěný v kořenovém adresáři našeho webu a obsahující direktivy pro vyhledávací roboty.

V těchto směrnicích určujeme, které stránky na našem webu indexovat a které ne. Můžeme také zadat název hlavní domény webu a souboru obsahujícího mapu webu.

Chcete-li zakázat indexování stránek Je použita direktiva Disallow. Je to ten, který používají webmasteři k uzavření duplicitních stránek z indexování, a to nejen duplikátů, ale jakýchkoli dalších informací, které přímo nesouvisejí s obsahem stránek. Například:

Disallow: /search/ - zavře stránky pro vyhledávání na webu
Disallow: /*? - zavřete stránky obsahující otazník „?“
Disallow: /20* - zavře stránky archivu

Pomocí souboru .htaccess

soubor .htaccess(bez přípony) se také nachází v kořenovém adresáři webu. Chcete-li bojovat s duplikáty v tomto souboru, nakonfigurujte použití 301 přesměrování.
Tato metoda pomáhá udržovat ukazatele webu dobře. změna CMS webu nebo změna jeho struktury. Výsledkem je správné přesměrování bez ztráty hmotnosti odkazu. V tomto případě se váha stránky na staré adrese přenese na stránku na nové adrese.
Přesměrování 301 se také používá při určování hlavní domény webu - s WWW nebo bez WWW.

Použití značky REL = „CANNONICAL“

Pomocí této značky webmaster označuje vyhledávači zdroj, tedy stránku, která by měla být indexována a podílet se na hodnocení vyhledávačů. Stránka se nazývá kanonická. Položka HTML bude vypadat takto:

Při použití CMS WordPress to lze provést v nastavení takového užitečného plugin jako All in One Seo Pack.

Další opatření proti duplicitě pro CMS WordPress

Po aplikaci všech výše uvedených metod řešení duplicitních stránek na mém blogu jsem měl vždy pocit, že jsem neudělal vše, co bylo možné. Proto jsem se po hrabání na internetu po konzultaci s profesionály rozhodl udělat něco jiného. Teď to popíšu.

Rozhodl jsem se odstranit duplicity, které na blogu vznikají, když pomocí kotev, Mluvil jsem o nich v článku “HTML Anchors”. Na blozích WordPress se kotvy generují při použití značky. "#more" a při použití komentářů. Účelnost jejich použití je spíše kontroverzní, ale zjevně vytvářejí duplikáty.
Nyní, jak tento problém vyřešit.

Nejprve se vypořádáme se značkou #more.

Nalezen soubor, kde je vytvořen. Spíše mi řekli.
Toto je ../wp-includes/post-template.php
Pak jsem našel úryvek programu:

ID)\" class= \"more-link\">$more_link_text", $more_link_text);

Červeně označená část byla odstraněna.

#more-($post->ID)\" class=

A skončil jsem u takové čáry.

$output .= apply_filters('the_content_more_link', ' $more_link_text", $more_link_text);

Odebrat ukotvení komentářů #comment

Nyní přejdeme ke komentářům. Už jsem na to přišel sám.
Rozhodl jsem se také pro spis ../wp-includes/comment-template.php
Nalezení správné části kódu

return apply_filters('get_comment_link', $link . '#komentář-' . $komentář->ID_komentáře, $komentář, $args);)

Podobně byl odstraněn i červeně označený fragment. Velmi pečlivě, pečlivě, až do každého bodu.

. '#komentář-' . $komentář->ID_komentáře

Skončíme s následujícím řádkem kódu.

return apply_filters('get_comment_link', $odkaz, $komentář, $args);
}

To vše samozřejmě udělal, když předtím zkopíroval uvedené programové soubory do svého počítače, takže v případě selhání bylo snadné obnovit stav podle změn.

V důsledku těchto změn, když kliknu na text "Přečíst zbytek záznamu ...", zobrazí se stránka s kanonickou adresou a bez přidání k koncové adrese ve tvaru "#více-. ......". Také, když kliknu na komentáře, dostanu normální kanonickou adresu bez předpony ve tvaru „#komentář-…“.

Počet duplicitních stránek na webu se tedy poněkud snížil. Nemohu ale říci, co dalšího tam náš WordPress vytvoří. Problém budeme nadále sledovat.

A na závěr dávám do pozornosti velmi dobré a poučné video na toto téma. vřele doporučuji ke shlédnutí.

Všechno zdraví a úspěch. Uvidíme se příště.

Užitečné materiály: