Besseres Datenhandling: Die dezentrale Suchmaschine

Die dezentralen Suchmaschine der Fernuniversität Hagen verspricht besseres Datenhandling

Es muss nicht immer Google sein: Die „WebEngine“ der FernUniversität Hagen will nicht besser sein als der Suchmaschinen-Riese Google aus dem Silicon Valley – aber besser in Sachen Datenschutz

Stellen Nutzer heutzutage Daten ins Internet stellen, geben sie diese aus der Hand: „Wir können sie nicht mehr zurückbekommen und nicht entscheiden, was mit ihnen weiter passiert“, erklärt der Hagener Informatik-Professor Dr. Herwig Unger. Und spricht damit aus, was vielen Internet-Nutzerinnen und -Nutzen angesichts zahlloseer Datenschutz-Skandalen bei Onlkine-Firmen sehr viel Bauchschmerzen bereitet.

Als Alternative für das Datenhandling im Netz von morgen hat der Leiter des Lehrgebiets Kommunikationsnetze an der FernUniversität in Hagen zusammen mit Privatdozent Dr. Mario Kubek den Prototypen einer dezentralen Suchmaschine entwickelt und erfolgreich getestet: die WebEngine.

Daten auf zentralen Unternehmensservern

Unger: „Nur um die Sichtbarkeit und Auffindbarkeit von Informationen zu erhöhen, konzentrieren wir unsere Daten auf zentralen Servern, die ihrerseits in der Hand großer Unternehmen sind – und damit unkontrollierbar und natürlich auch angreifbar. Selbst für Forschungszwecke ist es heute fast unmöglich, Informationen von diesen Einrichtungen über die Verwaltung dieser Daten zu bekommen.“ Der Grund für den Erfolg dieser Firmen ist einfach: Im Internet gibt es keine „Wegweiser“: Jede Information ist an einem Ort gespeichert, der mit ihrem Inhalt nichts zu tun hat.

Dezentralen Suchmaschine: Webdokumente automatisch kategorisieren

2015 hatten Unger und Kubek die entscheidende Idee, wie man auch Webdokumente automatisch, ohne jedes menschliche Zutun kategorisieren kann.

Die WebEngine kategorisiert lokal die angebotenen Webseiten und verbindet sich mit anderen Webservern, auf denen ebenfalls diese Software läuft, ohne dass diese Prozesse für irgendjemand überschaubar oder kontrollierbar sind. Im World Wide Web wird schließlich ein dezentraler Assoziativspeicher aufgebaut, in dem Such-Kategorien und zu diesen passende Webseiten auf einem Teil der Webserver verwaltet werden, die selbst Daten anbieten. Größe, Struktur, Ort und Fehlertoleranz werden dabei vom System durch lokal, also auf ihren Rechnern, arbeitende Verfahren gemanagt.

Suchergebnisse hundertprozentig aktuell

Zusammen mit der hundertprozentigen Aktualität der Suchergebnisse können viele neue Features die Nutzerinnen und Nutzer überzeugen, neben der Bewertung der Qualität der eingegebenen Suchworte vor allem die Suche mit Bedeutungsschwerpunkten.

Unterstützung aus Bangkok

Programmierung, Test und Integration aller Komponenten waren eine Aufgabe, die die beiden Forscher alleine kaum hätten bewältigen können. Fünf Kolleginnen, Kollegen und Studierende aus Bangkok halfen ein Jahr lang im Rahmen der Kooperation hierbei mit.

Einen Kommentar hinterlassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.