Übersicht

In diesem Tutorial zeige ich, wie man in 10 Schritten seine eigene Suchmaschine erstellen kann.

Willst Du schon seit langem mal eine eigene Suchmaschine entwickeln? Möchtest Du ein durchsuchbares Verzeichnis für Websites oder Dokumente eines bestimmten Themas zur Verfügung haben? Dann ist dieses Tutorial genau richtig für dich.

Die einzelnen Artikel zu diesem Tutorial werde ich in den nächsten Wochen schrittweise hier auf meinem Blog veröffentlichen. Sobald der nächste Artikel erschienen ist, wird er unten in der Übersicht „In 10 Schritten zur skalierbaren Suchmaschine“ verlinkt.

WICHTIG: PHP ist nicht die performanteste Sprache für eine Suchmaschine und MySQL ist nicht die beste Wahl für eine Suchmaschinen-Datenbank! Bei diesem Tutorial geht es nicht darum ein zweites Google mit tausenden von Servern zu entwickeln, sondern um ein Tutorial und eine einfache Suchmaschine.

Für wen ist dieses Tutorial geeignet?
Für dieses Tutorial solltest du zumindest PHP-Grundkenntnisse mitbringen und PHP auf deinem Rechner installieren können.

Was ist das Ziel des Tutorials?
Nach dem Tutorial hast Du ein Grundverständnis dafür, wie Suchmaschinen / Web-Crawler funktionieren und hast eine funktionsfähige, einfache – aber skalierbare – Suchmaschine zur Verfügung, die du für deine eigenen Projekte nutzen kannst.

Über mich
Ich arbeite seit dem 2010 hauptberuflich als Softwareentwickler. Im Rahmen meiner Tätigkeit habe ich vor allem an Webportalen und webbasierten ERP- und CRM-Systemen mitgearbeitet. Bei mehreren Projekten hatte ich mit Fulltext-Searchengines zu tun – die der Kern jeder vernünftigen Suchmaschine sind. Da ich für ein aktuelles Projekt einen Web-Crawler für bestimmte Arten von Websites benötige, habe ich mich entschieden, meine Erfahrungen aus diesem Projekt in einem Tutorial zu veröffentlichen.

In 10 Schritten zur skalierbaren Suchmaschine

  1. Einrichtung der PHP-Umgebung
  2. Erstellen des Symfony-Projekts
  3. Datenstruktur analysieren und Entities erstellen
  4. Suchprozess analysieren / Wie arbeiten Web-Crawler?
  5. Entwicklung des Web-Crawlers:
    1. Erste Suchphase: Hinzufügen von URLs
    2. Zweite Suchphase: Herunterladen und Speichern der URL / der Website
    3. Dritte Suchphase: Parsen der heruntergeladenen Seiten
    4. Vierte Suchphase: Verarbeiten der geparsten Daten
  6. Backend
    1. Dashboard erstellen
    2. Formulare / Eingabemasken für das Hinzufügen und Bearbeiten der URL-Datenbank
  7. Frontend
    1. Formular für die Suche
    2. Anzeigen der Suchergebnisse
    3. Eingrenzen der Suchergebnisse durch Filter
  8. Qualität der Suchergebnisse verbessern
  9. Integration einer Fulltext-Searchengine (Volltextsuche)
  10. Parallelverarbeitung / Skalieren des Systems
    1. Vorbereiten der Datenbank
    2. Erstellen mehrere Nodes (V-Server / Container) für das Crawlen und Parsen

René Pöpperl

Seit 2010 arbeite ich als Softwareentwickler. Mein hauptsächlichen Interessen liegen in gut durchdachtem UI-Design und hoher Code-Qualität.

Ein Gedanke zu „Übersicht

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Consent Management Platform von Real Cookie Banner