Lead Scraping
B2B-Listen aus Web-Daten extrahieren.
Skalator extrahiert Lead-Listen aus jedem Webportal — Apify, Custom-Scraper, LinkedIn-Listen, Google-Maps-Daten. Saubere ICP-Daten für Cold Outreach, ohne Standard-Datenbanken.
Apollo, ZoomInfo & Co decken nicht alles ab. Lead Scraping schon.
Standard-Datenbanken wie Apollo oder ZoomInfo sind großartig — aber sie kennen nicht jede Nische, nicht jede regionale Liste, nicht jede branchenspezifische Quelle. Wer wirklich präzise Lead-Listen will, braucht Custom-Scraping.
Skalator extrahiert Lead-Daten aus praktisch jeder öffentlich zugänglichen Quelle: LinkedIn-Listen (z. B. Member einer bestimmten Gruppe), Google Maps (alle Restaurants in Karlsruhe), Branchenverzeichnisse, Marktplätze, Job-Portale. Mit Apify, Playwright-Scrapern oder Custom-Pipelines.
Anschließend wird angereichert: E-Mails verifiziert, LinkedIn-Profile gemappt, ICP-Match geprüft, Daten ins CRM oder Outbound-Tool gespielt. Saubere Listen, die für Cold Email oder LinkedIn Outreach direkt einsetzbar sind.
Was bedeutet Lead Scraping rechtlich und technisch?
Lead Scraping ist die automatisierte Extraktion strukturierter Daten von öffentlich zugänglichen Webseiten. Rechtlich erlaubt, solange ToS nicht verletzt werden und keine personenbezogenen Daten ohne Rechtsgrundlage verarbeitet werden.
- Apify
- SaaS-Plattform mit fertigen Scrapern (Actors) für LinkedIn, Google Maps, Indeed, etc. Auch Custom-Actors möglich.
- Playwright / Puppeteer
- Headless-Browser für JavaScript-rendered Sites. Wir bauen Custom-Scraper für komplexe Targets.
- Datenanreicherung
- Nach Extraktion: Mail-Verifizierung (Anymailfinder, Hunter), Telefon-Lookup, Tech-Stack via BuiltWith.
- CRM-Integration
- Daten direkt ins Outbound-Tool oder CRM via API. n8n als Orchestration Layer.
- Compliance
- B2B-Daten: berechtigtes Interesse (§7 UWG). Keine personenbezogenen B2C-Daten ohne Einwilligung. Robots.txt respektieren.
- Anti-Detection
- Proxy-Rotation, User-Agent-Variation, Rate-Limiting. Scraping ohne IP-Bans und ohne Quellen-Schaden.
Was Custom-Lead-Scraping ermöglicht.
Nischige Datenquellen
Branchenverzeichnisse, Spezial-Portale, regionale Listen — überall, wo Apollo nicht hinkommt.
Maximaler ICP-Match
Sehr präzise Filter, weil wir die Quelle direkt kontrollieren — nicht eine vorgefertigte Datenbank.
Niedrige Cost per Lead
Bei Volumen oft günstiger als Apollo-Credits — vor allem bei spezifischen Nischen.
Aktuelle Daten
Live-Scraping liefert tagesaktuelle Daten. Apollo-Daten können Wochen alt sein.
Custom-Felder
Wir extrahieren beliebige Felder — Tech-Stack, Mitarbeiter-Anzahl, recent News, Funding-Status.
Skalierbar
Wenn der Scraper steht, lässt sich Volumen einfach hochfahren — bei moderaten zusätzlichen Kosten.
Wie Skalator Lead Scraping aufsetzt.
Phase 1: Quellen-Identifikation. Welche Portale haben deinen ICP? Phase 2: Scraper-Entwicklung mit Apify oder Playwright. Phase 3: Datenanreicherung (Mail-Verifizierung, Telefon-Lookup). Phase 4: ICP-Match und Cleanup. Phase 5: Übergabe ins Outbound-Tool oder CRM.
Was Skalator dabei liefert
- Quellen-Audit + Scraping-Plan
- Apify-Account oder Custom-Scraper
- Datenanreicherung-Pipeline
- ICP-Match-Logik
- CRM- oder Outbound-Tool-Integration
- Compliance-Check (§7 UWG, DSGVO)
- Monitoring + Re-Scraping-Schedule
- Dokumentation des Setups
Wann lohnt sich Lead Scraping?
Lead Scraping lohnt sich besonders bei:
- Sehr nischige B2B-Zielgruppen, die in Apollo nicht abbildbar sind
- Lokale oder regionale ICPs (alle Salons in Berlin, alle Hotels in BW)
- Branchen-spezifische Portale als beste Datenquelle
- Bedarf an Custom-Datenfeldern (Tech-Stack, Funding, recent News)
- Volumen-Anforderung über 1.000 Leads/Monat
- Bestehende Outbound-Operation, die Daten konsumiert
Maßgeschneiderte Lead-Listen aus jeder denkbaren Quelle. Präziser als Apollo, günstiger im Volumen, immer tagesaktuell.
Jetzt Erstgespräch buchenHäufige Fragen zu Lead Scraping
Ist Web-Scraping legal in Deutschland?
Ja, mit Einschränkungen. Öffentlich zugängliche B2B-Daten dürfen extrahiert werden. ToS der Quellseite müssen respektiert werden. Bei personenbezogenen Daten greift DSGVO — bei B2B im beruflichen Kontext meist berechtigtes Interesse.
Welche Tools nutzt Skalator?
Apify (SaaS, fertige Actors für viele Quellen), Playwright (Custom-Scraper in Node.js), n8n als Orchestrator, Anymailfinder/Hunter für Mail-Verifizierung.
Was kostet Lead Scraping?
Setup ab 2.500 € (für eine Quelle). Komplexe Multi-Source-Setups ab 6.000 €. Pro Lead Apify-Kosten 0,01–0,10 €. Plus Skalator-Operating als Retainer ab 800 €/Monat.
Wie viele Leads pro Monat?
Hängt von Quelle und Volumen ab. Beispiele: LinkedIn-Listen 1.000–5.000/Monat, Google Maps 5.000–50.000/Monat, Branchenverzeichnisse 500–10.000/Monat.
Wie ist die Daten-Qualität?
Mit Mail-Verifizierung typischerweise 85–95 % saubere E-Mails. ICP-Match je nach Filter-Logik 70–95 %.
Können wir ein bestehendes Apollo-Setup ergänzen?
Ja, sehr sinnvoll. Apollo für Standard-ICPs, Lead Scraping für nischige Ergänzungen. Wir kombinieren beide Quellen in einheitlicher Outbound-Pipeline.