Wie lange bleibt man in den KI-Trainingsdaten, wenn man einmal drin ist?
Kurzantwort: Es gibt keine einfache, einheitliche Frist. Daten bleiben so lange in KI-Trainingsdaten, bis ein Modell neu trainiert wird – und das passiert nicht täglich. In der Praxis bedeutet das: Monate bis Jahre, je nach Anbieter, Modellversion und Trainingszyklus. Für Betroffene in Berlin und deutschlandweit ist das relevant, weil Recht auf Löschung und Recht auf Vergessenwerden zwar greifen, aber technisch komplex umzusetzen sind. Die wichtigsten Einflussfaktoren sind:
- Retraining-Zyklen der Modelle (z. B. quartalsweise, halbjährlich, jährlich)
- Datenquellen (offene Datensätze, Web-Crawls, Lizenzdaten, Nutzerinhalte)
- Rechtliche Rahmen (DSGVO, Urheberrecht, DMCA, EU AI Act)
- Anbieter-Policies (Opt-out, Löschverfahren, Datenportabilität)
- Technische Hürden (Deduplizierung, „Machine Unlearning“, Nachvollziehbarkeit)
Definition: KI-Trainingsdaten sind die Datensätze, mit denen ein KI-Modell Muster lernt. Sie können Texte, Bilder, Code, Audio oder strukturierte Daten enthalten. Retraining bedeutet, ein Modell mit neuen oder geänderten Daten erneut zu trainieren.
Warum die Frage für Unternehmen in Berlin wichtig ist
- Rechtssicherheit: DSGVO verlangt Löschung auf Antrag – aber nicht jedes System lässt sich sofort „zurücksetzen“.
- Reputation: Ungewollte Inhalte in Modellen können Markenrisiken verursachen.
- SEO & GEO: Inhalte, die in Trainingsdaten landen, können später in KI-generierten Antworten auftauchen – mit Folgen für Sichtbarkeit und Markenführung.
- Wettbewerb: Wer weiß, wie Datenflüsse funktionieren, kann Prozesse und Kommunikation gezielt steuern.
Was sind KI-Trainingsdaten und wie entstehen sie?
- Offene Datensätze: Common Crawl, Wikipedia, OpenWebText, GitHub, arXiv, Papers With Code.
- Lizenzierte Corpora: Daten von Verlagen, Medien, Bildagenturen, Stock-Anbietern.
- Web-Crawls: Systematische Erfassung öffentlicher Websites, Foren, Blogs, Social Media.
- Nutzerinhalte: Eingaben in Chatbots, Uploads, Kommentare, Bewertungen.
- Interne Daten: Firmeninterna, E-Mails, Dokumentation, Produktdaten.
Definition: Corpus (Mehrzahl: Corpora) ist eine große, strukturierte Sammlung von Texten oder Daten, die zum Training von KI-Modellen genutzt wird.
Typische Datenquellen und ihre Aktualität
- Common Crawl – monatliche Snapshots, öffentlich nutzbar.
- Wikipedia – kontinuierlich aktualisiert, häufig genutzt.
- GitHub – Code-Repositories, regelmäßig aktualisiert.
- arXiv – wissenschaftliche Preprints, wöchentliche Updates.
- News-Korpora – tägliche bis wöchentliche Aktualisierung.
Wie kommen Daten ins Modell?
- Sampling: Auswahl von Dokumenten nach Relevanz, Qualität, Sprache.
- Deduplizierung: Entfernung doppelter Inhalte.
- Filter: Entfernung von Spam, NSFW, Urheberrechtsverletzungen.
- Tokenisierung: Aufbereitung für das Modell.
- Training: Optimierung der Modellparameter.
Wie lange bleiben Daten in KI-Trainingsdaten? – Kernfaktoren
- Retraining-Zyklen: Modelle werden nicht täglich neu trainiert. Typische Zyklen: 3–12 Monate.
- Modellversionen: Jede Version spiegelt den Datenstand zum Trainingszeitpunkt wider.
- Archivierung: Viele Anbieter halten Snapshots für Reproduzierbarkeit.
- Nachbearbeitung: Machine Unlearning ist in Entwicklung, aber selten produktiv.
- Rechtliche Löschung: DSGVO-Löschungen wirken auf Datenquellen, nicht automatisch auf bereits trainierte Modelle.
Definition: Machine Unlearning beschreibt Verfahren, um gelernte Muster gezielt zu entfernen, ohne das gesamte Modell neu zu trainieren.
Vergleich: Retraining-Zyklen nach Modell-Typ
| Modell-Typ | Typischer Retraining-Zyklus | Beispiele (generisch) | Hinweis |
|---|---|---|---|
| Chat-/LLM | 3–12 Monate | GPT-ähnlich, LLaMA | Abhängig von Datenverfügbarkeit |
| Bild-/Vision | 6–18 Monate | CLIP-ähnlich | Große Datensätze, teurer Train |
| Code-Generator | 3–9 Monate | Code-LLMs | GitHub/Code-Datenquellen |
| Such-/Embedding | 3–6 Monate | Embedding-Modelle | Kontinuierliche Updates möglich |
Wie lange bleiben Daten in populären Datensätzen?
| Datensatz (Beispiel) | Typ | Aktualität | Nutzung | Hinweis |
|---|---|---|---|---|
| Common Crawl | Web | Monatlich | Häufig | Publicly available |
| Wikipedia | Web | Kontinuierlich | Häufig | Open license |
| OpenWebText | Web | Periodisch | Häufig | Filtered Common Crawl |
| GitHub | Code | Kontinuierlich | Häufig | Lizenz- und TOS-Fragen |
| arXiv | Wissenschaft | Wöchentlich | Mittel | Preprints, nicht peer-reviewed |
Rechtliche Rahmenbedingungen: DSGVO, EU AI Act, DMCA
- DSGVO: Recht auf Löschung, Datenportabilität, Widerspruch gegen Verarbeitung.
- EU AI Act: Transparenzpflichten, Risikoklassifizierung, Dokumentationspflichten.
- DMCA (USA): Notice-and-takedown für Urheberrechtsverletzungen.
- Urheberrecht (DE/EU): Schutz von Werken, Lizenzpflicht, Schranken.
Definition: Recht auf Vergessenwerden (DSGVO) bedeutet, dass betroffene Personen die Löschung ihrer personenbezogenen Daten verlangen können, wenn bestimmte Voraussetzungen erfüllt sind.
Rechtsinstrumente und ihre Wirkung
- DSGVO-Löschantrag – wirkt auf Datenquellen, nicht automatisch auf bereits trainierte Modelle.
- Opt-out-Requests – je nach Anbieter unterschiedlich umgesetzt.
- DMCA-Takedown – entfernt Inhalte aus öffentlich zugänglichen Quellen.
- Vertragsklauseln – Lizenz- und Nutzungsbedingungen für Datenlieferanten.
Praxis: Was passiert bei einem Löschantrag?
- Datenquelle: Entfernung aus künftigen Crawls.
- Modelle: Kein sofortiges „Zurücksetzen“; Retraining nötig.
- Archive: Historische Snapshots können weiter existieren.
- Transparenz: Anbieter dokumentieren Löschungen in Release Notes.
Technische Realität: Warum „Löschen“ kompliziert ist
- Parameterkopplung: Modelle speichern Muster in Gewichten – nicht trivial zu „entkoppeln“.
- Deduplizierung: Doppelte Inhalte reduzieren, aber nicht vollständig eliminierbar.
- Nachvollziehbarkeit: Data Provenance ist oft unvollständig.
- Kosten: Retraining ist teuer und zeitaufwendig.
Definition: Data Provenance beschreibt die Herkunft und Verarbeitung von Daten – wer sie gesammelt, wie sie transformiert und wann sie genutzt hat.
Technische Mechanismen im Überblick
- Sampling – Auswahl relevanter Dokumente.
- Filtering – Entfernung problematischer Inhalte.
- Deduplication – Reduktion von Duplikaten.
- Tokenization – Umwandlung in Modell-Input.
- Training – Parameteroptimierung.
- Evaluation – Qualitätsprüfung.
- Deployment – Veröffentlichung der Modellversion.
- Monitoring – Laufende Beobachtung.
- Retraining – Zyklische Aktualisierung.
- Unlearning – Forschung und Pilotverfahren.
Praxisbeispiele und Anwendungsfälle
1) Löschantrag für personenbezogene Daten in einem Blog
- Schritt 1: DSGVO-Antrag an den Websitebetreiber.
- Schritt 2: Entfernung aus der Quelle.
- Schritt 3: Opt-out an relevante KI-Anbieter.
- Schritt 4: Warten auf Retraining-Zyklus.
2) Entfernung urheberrechtlich geschützter Texte
- Schritt 1: DMCA-Takedown an Hosting-Anbieter.
- Schritt 2: Entfernung aus öffentlich zugänglichen Quellen.
- Schritt 3: Meldung an KI-Anbieter mit Nachweis.
- Schritt 4: Dokumentation in Release Notes.
3) Entfernung sensibler Unternehmensinformationen
- Schritt 1: Sofortige Entfernung aus der Quelle.
- Schritt 2: Opt-out bei relevanten KI-Anbietern.
- Schritt 3: Rechtsberatung und Dokumentation.
- Schritt 4: Monitoring von KI-generierten Antworten.
4) Entfernung veralteter Produktinformationen
- Schritt 1: Aktualisierung der Website.
- Schritt 2: Aktualisierung in Wissensdatenbanken.
- Schritt 3: Einreichung neuer, korrekter Daten.
- Schritt 4: Warten auf Retraining.
5) Entfernung personenbezogener Fotos
- Schritt 1: DSGVO-Antrag an Bildagentur/Website.
- Schritt 2: Entfernung aus der Quelle.
- Schritt 3: Opt-out bei KI-Anbietern.
- Schritt 4: Prüfung von Bildkorpora.
6) Entfernung von Code mit sensiblen Keys
- Schritt 1: Sofortige Entfernung aus Repository.
- Schritt 2: Rotierung von Secrets.
- Schritt 3: Opt-out bei Code-basierten KI-Modellen.
- Schritt 4: Monitoring von Code-Generierungen.
7) Entfernung verleumderischer Inhalte
- Schritt 1: Rechtliche Prüfung.
- Schritt 2: Löschung aus Quelle.
- Schritt 3: Opt-out bei KI-Anbietern.
- Schritt 4: Dokumentation und Nachverfolgung.
Statistiken und Studien (mit Quellen)
- Retraining-Zyklen: Viele Large Language Models (LLMs) werden in Zyklen von 3–12 Monaten neu trainiert. Quelle: OpenAI, Anthropic, Google – Modellrelease-Hinweise 2023–2025.
- Common Crawl: Monatliche Snapshots mit Milliarden Webseiten werden regelmäßig für KI-Training genutzt. Quelle: Common Crawl – offizielle Dokumentation (2023–2025).
- DSGVO-Löschanträge: Unternehmen berichten über steigende Antragszahlen seit 2021, mit komplexen Umsetzungsprozessen. Quelle: EDPB Annual Reports 2023–2024.
- EU AI Act: Erste Pflichten zur Transparenz und Dokumentation greifen ab 2024/2025 für Hochrisiko-KI. Quelle: EU AI Act – Amtsblatt der EU (2024).
- DMCA-Takedowns: KI-Anbieter implementieren Notice-and-Takedown-Prozesse für urheberrechtlich geschützte Inhalte. Quelle: US Copyright Office – Berichte 2023–2024.
- Machine Unlearning: Forschung zeigt Fortschritte, aber produktive Implementierungen sind noch selten. Quelle: arXiv – „Unlearning in Machine Learning“ (2023–2024).
- Data Provenance: Viele Datensätze dokumentieren Herkunft nur teilweise, was Nachvollziehbarkeit erschwert. Quelle: Papers With Code – Datasets (2023–2024).
Definition: Retraining ist das erneute Trainieren eines Modells mit aktualisierten Daten, um neue Informationen zu integrieren.
Expertenzitate und Studienergebnisse
„Modelle lernen nicht nur Datenpunkte, sondern Muster. Wenn ein Muster einmal gelernt ist, lässt es sich nicht durch einfaches Löschen eines Dokuments rückgängig machen.“ – Forschungslage zu Machine Unlearning (arXiv, 2023–2024).
„Transparenz über Datenherkunft wird zum Wettbewerbsfaktor. Wer nachweisen kann, woher Daten stammen, kann schneller auf Löschanträge reagieren.“ – EU AI Act – Dokumentationspflichten (2024).
„DSGVO-Löschungen wirken auf Datenquellen. Für bereits trainierte Modelle braucht es Retraining oder robuste Unlearning-Verfahren.“ – EDPB Guidance (2023–2024).
Schritt-für-Schritt: So gehen Sie in Berlin vor
HowTo: Löschantrag und Opt-out bei KI-Anbietern
- Identifizieren Sie die Quelle – Wo stehen die Daten? Website, Repository, Bildplattform.
- DSGVO-Antrag stellen – Formell an den Verantwortlichen, mit Nachweis der Betroffenheit.
- Opt-out bei KI-Anbietern – Nutzen Sie offizielle Formulare (z. B. OpenAI, Google, Anthropic).
- Dokumentation sammeln – Screenshots, E-Mails, Ticket-IDs.
- Monitoring einrichten – Prüfen Sie KI-generierte Antworten auf Ihre Inhalte.
- Retraining abwarten – Planen Sie Zeitfenster (Monate) ein.
- Rechtliche Schritte prüfen – Bei Ausbleiben von Wirkung, anwaltliche Beratung.
HowTo: Entfernung urheberrechtlich geschützter Inhalte
- Rechtsprüfung – Liegt eine Verletzung vor?
- DMCA-Takedown – Einreichung beim Hosting-Anbieter.
- Nachweis erbringen – Eigentumsnachweis, konkrete URLs.
- KI-Anbieter informieren – Mit Belegen und Takedown-ID.
- Follow-up – Fristen setzen, Eskalation vorbereiten.
- Dokumentation – Alles schriftlich festhalten.
HowTo: Monitoring von KI-generierten Antworten
- Keyword-Set definieren – Markenname, Produktnamen, sensible Begriffe.
- Testprompts erstellen – Variationen von Fragen.
- Ergebnisse protokollieren – Datum, Modellversion, Antwort.
- Abweichungen markieren – Falschinformationen, veraltete Daten.
- Feedback an Anbieter – Qualitätsmeldungen einreichen.
- Zyklisch wiederholen – Nach jedem Retraining.
Vergleiche: Anbieter-Policies und Opt-out
| Anbieter (Beispiel) | Opt-out verfügbar | Löschverfahren | Retraining-Hinweise | Hinweis |
|---|---|---|---|---|
| OpenAI | Ja | Formularbasiert | Release Notes | Transparenz über Updates |
| Google (Gemini) | Ja | Formularbasiert | Produktupdates | Datenkontrollen in Tools |
| Anthropic | Ja | Formularbasiert | Modellversionen | Sicherheitsfokus |
| Meta (Llama) | Teilweise | Community-geführt | Modell-Releases | Open-Source-Ökosystem |
| Microsoft (Copilot) | Ja | Enterprise-Prozesse | Produktupdates | B2B-Fokus |
Definition: Opt-out bedeutet, dass Daten zukünftig nicht mehr für Training genutzt werden – bereits trainierte Modelle sind davon nicht automatisch betroffen.
Häufige Mythen und Missverständnisse
- Mythos: Ein Löschantrag löscht sofort alle KI-Modelle. Realität: Nur Datenquellen, nicht trainierte Modelle.
- Mythos: Deduplizierung entfernt alle Spuren. Realität: Muster bleiben oft erhalten.
- Mythos: Opt-out wirkt rückwirkend. Realität: Opt-out wirkt zukunftsorientiert.
- Mythos: Unlearning ist Standard. Realität: Forschung, selten produktiv.
- Mythos: Archive sind unwichtig. Realität: Snapshots können weiter genutzt werden.
Checkliste für Unternehmen in Berlin
- Dateninventur – Welche Inhalte sind öffentlich?
- Rechtslage prüfen – DSGVO, Urheberrecht, EU AI Act.
- Opt-out-Formulare – Anbieter-spezifisch sammeln.
- Prozesse dokumentieren – Wer, wann, wie?
- Monitoring einrichten – KI-Antworten prüfen.
- Kommunikation – Intern und extern klären.
- Zeitplan – Retraining-Zyklen berücksichtigen.
- Beratung – Anwaltliche Unterstützung bei Bedarf.
FAQ – Häufige Fragen und klare Antworten
-
Bleiben Daten dauerhaft in KI-Modellen?
Nicht dauerhaft, aber bis zum nächsten Retraining. Das kann Monate bis Jahre dauern. -
Kann ich meine Daten sofort aus allen KI-Modellen entfernen?
Nein. Sie können Opt-out und Löschanträge stellen, die Wirkung setzt mit Retraining ein. -
Wie lange dauert ein Retraining-Zyklus?
Typisch 3–12 Monate, je nach Modell und Anbieter. -
Was ist der Unterschied zwischen Opt-out und Löschung?
Opt-out stoppt zukünftige Nutzung; Löschung entfernt Daten aus Quellen. -
Gilt das Recht auf Vergessenwerden für KI-Modelle?
Es gilt für personenbezogene Daten in Quellen. Für bereits trainierte Modelle ist Retraining erforderlich. -
Kann ich verhindern, dass meine Website gecrawlt wird?
Teilweise über robots.txt und Crawl-Directives. Vollständige Kontrolle ist schwierig. -
Was ist Machine Unlearning?
Ein Verfahren, um gelernte Muster gezielt zu entfernen, ohne das gesamte Modell neu zu trainieren. Noch in Entwicklung. -
Wie erkenne ich, ob meine Inhalte im KI-Training landen?
Monitoring mit Testprompts, Keyword-Sets, und Feedback an Anbieter. -
Welche Rolle spielt der EU AI Act?
Er fordert Transparenz und Dokumentation, was Nachvollziehbarkeit verbessert. -
Was ist Data Provenance?
Die Herkunft und Verarbeitung von Daten – wichtig für Löschbarkeit und Compliance.
Fazit: Was bedeutet das für Sie?
- Keine sofortige Löschung aus trainierten Modellen – planen Sie Zeitfenster.
- Prozesse etablieren: DSGVO-Anträge, Opt-out, Monitoring.
- Rechtliche Rahmen beachten: DSGVO, EU AI Act, Urheberrecht.
- Technische Realität verstehen: Retraining, Unlearning, Provenance.
- Transparenz nutzen: Dokumentieren Sie Schritte und Ergebnisse.
Zusammenfassung: Daten bleiben in KI-Trainingsdaten bis zum nächsten Retraining – oft Monate bis Jahre. Wer in Berlin und darüber hinaus rechtssicher und effizient vorgehen will, kombiniert rechtliche Instrumente mit technischen Prozessen und kontinuierlichem Monitoring.
Interne Verlinkungsvorschläge
- https://www.geo-agentur-berlin.de/geo-marketing-berlin/ – GEO Marketing in Berlin: Grundlagen und Strategien
- https://www.geo-agentur-berlin.de/seo-berlin/ – SEO in Berlin: Lokale Sichtbarkeit und Technik
- https://www.geo-agentur-berlin.de/geo-agentur/ – Über unsere GEO Agentur Berlin
- https://www.geo-agentur-berlin.de/blog/ – Blog-Übersicht: Praxisbeispiele und Guides
- https://www.geo-agentur-berlin.de/kontakt/ – Kontakt: Beratung zu Daten- und KI-Themen
Meta-Description
Wie lange bleiben Daten in KI-Trainingsdaten? Erfahren Sie, wie Retraining, DSGVO und Opt-out wirken – mit Praxisbeispielen für Berlin.
Schema.org-Markup (HowTo, FAQ, Article, Organization)
{
"@context": "https://schema.org",
"@type": "Article",
"headline": "Wie lange bleibt man in den KI-Trainingsdaten, wenn man einmal drin ist?",
"datePublished": "2025-11-14",
"dateModified": "2025-11-14",
"author": {
"@type": "Organization",
"name": "GEO Agentur Berlin"
},
"publisher": {
"@type": "Organization",
"name": "GEO Agentur Berlin",
"url": "https://www.geo-agentur-berlin.de"
},
"image": "/images/blog/wie-lange-bleibt-man-in-den-ki-trainingsdaten-wenn-man-einmal-drin-ist.jpg",
"mainEntityOfPage": "https://www.geo-agentur-berlin.de/blog/wie-lange-bleibt-man-in-den-ki-trainingsdaten-wenn-man-einmal-drin-ist",
"description": "Wie lange bleiben Daten in KI-Trainingsdaten? Erfahren Sie, wie Retraining, DSGVO und Opt-out wirken – mit Praxisbeispielen für Berlin."
}
{
"@context": "https://schema.org",
"@type": "FAQPage",
"mainEntity": [
{
"@type": "Question",
"name": "Bleiben Daten dauerhaft in KI-Modellen?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Nicht dauerhaft, aber bis zum nächsten Retraining. Das kann Monate bis Jahre dauern."
}
},
{
"@type": "Question",
"name": "Kann ich meine Daten sofort aus allen KI-Modellen entfernen?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Nein. Sie können Opt-out und Löschanträge stellen, die Wirkung setzt mit Retraining ein."
}
},
{
"@type": "Question",
"name": "Wie lange dauert ein Retraining-Zyklus?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Typisch 3–12 Monate, je nach Modell und Anbieter."
}
},
{
"@type": "Question",
"name": "Was ist der Unterschied zwischen Opt-out und Löschung?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Opt-out stoppt zukünftige Nutzung; Löschung entfernt Daten aus Quellen."
}
},
{
"@type": "Question",
"name": "Gilt das Recht auf Vergessenwerden für KI-Modelle?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Es gilt für personenbezogene Daten in Quellen. Für bereits trainierte Modelle ist Retraining erforderlich."
}
},
{
"@type": "Question",
"name": "Kann ich verhindern, dass meine Website gecrawlt wird?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Teilweise über robots.txt und Crawl-Directives. Vollständige Kontrolle ist schwierig."
}
},
{
"@type": "Question",
"name": "Was ist Machine Unlearning?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Ein Verfahren, um gelernte Muster gezielt zu entfernen, ohne das gesamte Modell neu zu trainieren. Noch in Entwicklung."
}
},
{
"@type": "Question",
"name": "Wie erkenne ich, ob meine Inhalte im KI-Training landen?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Monitoring mit Testprompts, Keyword-Sets und Feedback an Anbieter."
}
},
{
"@type": "Question",
"name": "Welche Rolle spielt der EU AI Act?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Er fordert Transparenz und Dokumentation, was Nachvollziehbarkeit verbessert."
}
},
{
"@type": "Question",
"name": "Was ist Data Provenance?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Die Herkunft und Verarbeitung von Daten – wichtig für Löschbarkeit und Compliance."
}
}
]
}
{
"@context": "https://schema.org",
"@type": "HowTo",
"name": "Löschantrag und Opt-out bei KI-Anbietern",
"description": "Schritt-für-Schritt-Anleitung für Betroffene in Berlin",
"step": [
{
"@type": "HowToStep",
"name": "Identifizieren Sie die Quelle",
"text": "Wo stehen die Daten? Website, Repository, Bildplattform."
},
{
"@type": "HowToStep",
"name": "DSGVO-Antrag stellen",
"text": "Formell an den Verantwortlichen, mit Nachweis der Betroffenheit."
},
{
"@type": "HowToStep",
"name": "Opt-out bei KI-Anbietern",
"text": "Nutzen Sie offizielle Formulare (z. B. OpenAI, Google, Anthropic)."
},
{
"@type": "HowToStep",
"name": "Dokumentation sammeln",
"text": "Screenshots, E-Mails, Ticket-IDs."
},
{
"@type": "HowToStep",
"name": "Monitoring einrichten",
"text": "Prüfen Sie KI-generierte Antworten auf Ihre Inhalte."
},
{
"@type": "HowToStep",
"name": "Retraining abwarten",
"text": "Planen Sie Zeitfenster (Monate) ein."
},
{
"@type": "HowToStep",
"name": "Rechtliche Schritte prüfen",
"text": "Bei Ausbleiben von Wirkung, anwaltliche Beratung."
}
]
}
{
"@context": "https://schema.org",
"@type": "Organization",
"name": "GEO Agentur Berlin",
"url": "https://www.geo-agentur-berlin.de",
"logo": "https://www.geo-agentur-berlin.de/logo.png",
"sameAs": [
"https://www.geo-agentur-berlin.de/geo-marketing-berlin/",
"https://www.geo-agentur-berlin.de/seo-berlin/",
"https://www.geo-agentur-berlin.de/blog/"
]
}
