Topical Authority 2026

Topical Authority 2026, Entity-SEO, Google‑Patente und den Einfluss der Google‑Leaks auf praktische SEO‑Strategien.

Das Video ist ein rund einstündiges Fachgespräch zwischen Jesper Nissen und Koray Tuğberk über Topical Authority 2026, Entity-SEO, Google‑Patente und den Einfluss der Google‑Leaks auf praktische SEO‑Strategien.

Kernaussagen zu Google und Ranking-Signalen

  • Koray erklärt, wie ihn der Medic‑Update‑Crash 2018 von massivem Link‑/PBN‑SEO zu semantischer Onpage‑Optimierung und Patent‑Analyse gebracht hat.

  • Er beschreibt „Rank Merge“: Google kombiniert Linksignale, Popularität (Nutzersignale/Chrome‑Daten) und inzwischen zusätzliche Layer wie „Navboost“, der Topikalität, Links, Popularität und historische Navigationspfade zusammenführt.

  • Klicks werden qualitativ eingestuft (z.B. „Unicorn Clicks“ von Nutzern mit langer Historie zu einem Thema) und haben stärkeren Einfluss als generisch manipulierte CTR‑Signale von frischen Accounts.

Topical Authority & historische Daten

  • Korays Formel: Topical Authority = Topical Coverage × Historical Data; wer ein Thema tief abdeckt und lange stabil rankt, wird „stickier“ und schwerer verdrängbar.

  • Neue Websites ohne Historie müssen „mehr tun als der Wettbewerber“, um überhaupt ein Qualitäts‑Experiment von Google auszulösen (z.B. bessere Inhalte, UX, Design, interne Struktur).

  • Er unterscheidet Root/Seed/Node‑Seiten in Topical Maps und zeigt ein Fallbeispiel, bei dem Seiten nur mit stark fokussierter interner Verlinkung (3 interne Links im Main Content, keine Footer/Header‑Links) ohne externe Links rankten.

Content Effort, Design & Visual Semantics

  • Im Google‑API‑Leak taucht das Signal „contentEffort“ auf, das laut Koray über ein LLM zwischen 0 und 127 skaliert wird und in den Quality Rater Guidelines als „human effort“ beschrieben wird.

  • Google bewertet nicht nur Text, sondern auch Layout‑Muster: über Snapshot‑Datenbanken („public layout network“) und Patente wie „website representation features“ werden Designs vektorisiert, geclustert und u.a. echte Businesses von massenhaft generierten AI‑Sites getrennt.

  • „Centerpiece Annotation“: Google versucht das zentrale funktionale Element einer Seite (z.B. ein Konverter) zu identifizieren; liegt dieses zu weit unten oder ist von Ads verdrängt, kann das Ranking und sogar die Crawl‑Priorität leiden.

  • Ein Praxisbeispiel: Nur das Verschieben eines Konverters von der Seitenmitte nach oben führte zu einem Sprung von ca. 2.000 auf 30.000 Klicks pro Tag und einem vollständigen Re‑Crawl der Site.

Lesen Sie auch:  Local SEO Taktiken als Boost für Webseiten Sichtbarkeit

Grenzen von Korrelationstools & Arbeit mit Entities

  • Koray kritisiert klassische Onpage‑Korrelationstools (Surfer, POP etc.), weil sie meist nur das replizieren, was bereits im SERP ist, ohne neue „unique embeddings“ zu schaffen.

  • Er betont Relevanz und Salience: Wortstellung und Satzstruktur bestimmen, welche Begriffe semantisch „schwerer“ wiegen; zwei semantisch gleiche Sätze können völlig unterschiedliche Relevanz-Signale senden.

  • Jesper beschreibt Schemawriter: Top‑10 scrapen, vektorisieren, Wikipedia‑Entities extrahieren und fehlende Entities gezielt ergänzen – was in der Praxis regelmäßig Rankings verbessert.

  • Koray warnt, dass Entities je nach Index‑Refinement falsch platziert auch schaden können (Beispiel Abraham‑Lincoln‑Biografie vs. Attentat: falsche Entity‑Schwerpunkte verschieben die Seite in einen anderen Sub‑Index).

Social Media, Web Entities und AI Overviews

  • Google bewertet zunehmend „Web Entities“ (Person/Brand) statt nur Websites; in „About this result“ erscheint bei Social‑Profilen häufig der Personenname als Quelle.

  • Starke und konsistente Präsenz auf Social Media (Facebook‑Gruppen, X, LinkedIn, YouTube etc.) erhöht die thematische Kopplung einer Marke zu einem Topic durch Co‑Occurrences im gesamten Index.

  • Koray verweist auf Googles Ankündigung vom 8. Dezember 2025 zur Integration von Social‑Profilen in die Search Console: Performance von Website, YouTube und anderen Kanälen wird zusammen bewertet.

  • Social Posts werden sowohl als Parasite‑SEO‑Assets (Longtail‑Rankings) als auch als Datengrundlage für AI‑Overviews genutzt; wer Definitionen und Kriterien über viele Plattformen konsistent verbreitet, kann AI‑Antworten und Rankings messbar beeinflussen.

Praktische Implikationen für SEO 2026

  • Fokus auf echte Businesses mit schwer replizierbarer „Human Effort“ (Design, Backend, Service, Beratung) statt rein informationslastige, leicht mit AI klonbare Affiliate‑Blogs.

  • Strukturierte Topical Maps mit klarer interner Verlinkung (Root/Seed/Node), salienz‑optimierte Texte und durchdachte Visual Semantics (Centerpiece oben, klare Sektionen, keine generischen Themes ohne Anpassung).

  • Gezielter Einsatz von Entities aus verlässlichen Knowledge Bases (z.B. Wikipedia, ggf. branchenspezifische Quellen) mit hoher Präzision, statt bloßer „Entity‑Füllung“.

  • Aktive Social‑Strategie: themenrelevante Posts, Aufbau von Erwähnungen und Diskussionen auf Plattformen, die stark gecrawlt werden, plus Monitoring der Auswirkungen in SERPs und AI‑Overviews.

Klick zum Bewerten
[Gesamt: 1 Mittelwert: 5]

Ähnliche Beiträge