Über-Aggregatoren und ihr Versagen

2-Blog ist meine Zentrale, jedoch nicht der Ort, wo alle meine Informationsstränge zusammenlaufen.

Nico Lumma hat interessante Überlegungen zum Thema Aggergatoren geschrieben. Er kommt zu dem Schluss, dass viele Informationen durch nicht relevant sind und dadurch die meisten der geläufigen Aggregatoren keinen wirklichen Nutzen bringen. Da gebe ich ihm Recht.

Doch was ist so ein Aggregator, was macht er und vor allem wo liegen die Probleme?

Aggregatoren machen nichts anderes als die RSS-Feeds von verschiedenen Webservices zu einem zusammenzufügen. Solche Services gibt es schon lange, aber bisher war es nicht üblich, dass man mehrere Feeds besaß. Derzeit am populärsten ist Friendfeed. Wenn ich mir die Seite nun aber anschaue, gibt es fast keinen Mehrwert. Updates zeitlich geordnet ohne jeglichen Kontext.

Ich verfolge von niemanden aktiv solch einen Feed. Dafür gibt es nicht nur einen, sondern mehrere Gründe.

Mich interessieren die Inhalte nicht.
Nur weil ich den Blog von jemanden lese, heißt das noch lange nicht, dass mich auch interessiert was er zum Frühstück isst oder dass er neue Fotos aus dem letzten Familienurlaub hochgeladen hat.

Ich kenne die Inhalte bereits.
Blogs, die mich interessieren, habe ich in meinem Feedreader. Also erfahre ich wenn ein neuer Beitrag da ist und lese ihn wahrscheinlich. Der Aggregator zeigt mir nun wieder an, dass es einen neuen Beitrag gibt. Doch damit nicht genug. Viele Leute verwenden ein Plugin, das eine Twitter-Nachricht schreibt, wenn es einen neuen Beitrag gibt. Dann gibt es wiederum die Facebook-Application TwitterSync, welche die Statusnachricht mit Twitter abgleicht. In meinem Fall liefert dann noch soup.io den Overkill. Dort werden ebenfalls Daten aggergiert (Blog, Facebook, Twitter, flickr,..), doch ich poste auch neue Sachen, weshalb ich es auch in den Friendfeed einfließen lassen würde. Das ergibt dann 14 Benachrichtigungen von einem einzigen Beitrag, davon 7 im Aggregator. Reader, Twitter, Facebook, soup (Blogfeed, Twitter, FB-Status), Aggregator (Reader, Twitter, Facebook, soup (Blogfeed, Twitter, FB-Status)). Würde ich nun den Aggregator-Feed in soup einlaufen lassen, hätten wir eine wunderbare Schleife und bald steht das Internet still…

Nun gibt es bereits für beide Probleme Lösungsansätze.

Damit mich nur noch Inhalte erreichen, die mich interessieren, muss man umdenken. Bisher ist man davon ausgegangen, dass einen alle Dinge von einer Person interessieren, wenn es eine getan hat. Das ist schlichtweg falsch und kann bereits bei Blogs gesehen werden. Manche versuchen zwanghaft in ihrem Themenbereich zu bleiben, aber der Großteil schreibt einfach, was ihm gerade durch den Kopf geht. Deshalb ist es möglich hunderte Feeds am Tag zu lesen, weil der Großteil uninteressant ist. Wie kann man diesem Problem begegnen? Tags. Schlagworte. Diesen Ansatz verfolgt beispielsweise Wikio. Dort werden sowohl Newsseiten, als auch Blogs eingelesen und deren Tags übernommen bzw. welche hinzugefügt. Wobei ich bei letzterem noch nicht wirklich weiß wie es funktioniert. Nun erstelle ich mir eine Seite und füge dort Schlagworte und Feeds hinzu, die mich interessieren und schon bekomme ich alle Beiträge, welche zu den Tags passen und alle Beiträge der Feeds. Durch das Votingsystem wird noch über die Qualität entschieden und schon habe ich mehr relevante Inhalte und muss nicht mehr hunderte Blogs selbst screenen. Die Schwierigkeit liegt nun in den Schlagworten, deren Mißbrauch und dem Wertungsalghorithmus. Hier müsste ein intelligenter Algorithmus her, der den gesamten Text erfasst und erkennt welche Tags passen. Das Voting durch Menschen wird aber noch lange nicht ersetzt werden können. Erklärung des Systems aus erster Hand in den Kommentaren.

Gegen das Problem des vielfachen gleichen Content muss eine bessere Kommunikation zwischen den Diensten her. Die Beiträge brauchen einen Hinweis wo sie ursprünglich herkommen und die Aggregatoren müssen erkennen, ob der Beitrag schon einmal eingetragen wurde. NoseRub könnte in diesem Bereich ein Vorbild sein. Derzeit wird es hauptsächlich als Aggregator verwendet, aber die Idee dahinter sieht anders aus. Es geht darum, dass jeder seine Daten auf seinem eigenen Server hat und diese mit anderen austauscht. Wenn man da etwas weiter denkt, könnte ich mir vorstellen, dass ich alle Dienste auf meinem Server laufen lasse und mir selbst zusammenstelle was ich von wem bekommen will. Derjenige muss dann bestätigen, dass ich beispielsweise seine Blog und Tweets erhalte oder hat sie für alle verfügbar gemacht. Mir werden dann alle Dinge schön übersichtlich dargestellt. Eine Schwierigkeit könnte sein, dass es nicht dazu kommen wird, dass alle auf NoseRub umsteigen. Somit muss ich erst recht wieder die Inhalte von verschiedenen Services zusammensuchen und wir stehen vor dem gleichen Problem. Vielleicht wäre es möglich, dass ich alle meine Inhalte auf meinen NoseRub-Server hole und sie dann von dort weiter verteilt werden. Zumindest gefällt mir der Gedanke besser, dass ich bestimmen kann wer was von mir bekommt und nicht einfach jeder wie er will es verteilt.


Beitrag veröffentlicht

in

von

Kommentare

3 Antworten zu „Über-Aggregatoren und ihr Versagen“

  1. Avatar von Tea

    Luca, vielen Dank für Dein Interesse an Wikio.

    Wikio indexiert RSS-Feeds von ausgewählten Blogs und Websites. Neue Posts und Artikel werden einer semantischen Analyse unterzogen (wir arbeiten mit der Software von Sinequa) und dann den von Redakteuren angelegten Kategorien zugeordnet. Für jede Kategorie werden Keywords angelegt, die neue Artikel anziehen. Auch ist es möglich, einen monothematischen Feed direkt an eine Kategorie zu binden.
    Das Voting hat also mehr Einfluss auf die Popularität eines Artikels als auf die Qualität.

    Die Tags stammen von den benachbarten Kategorien der selben übergeordneten Kategorie, wurden automatisch nach der Analyse generiert oder von Hand von Redakteuren hinzugefügt. Der Algorithmus hilft uns sehr bei unserer Arbeit, eine manuelle Kontrolle und Unterstützung ist allerdings sehr wohl nötig.

  2. […] linear verteilt. Es gibt eine Quelle, deren Feed in verschiedene Services einfließt. (siehe auch Über-Aggregatoren und ihr Versagen) In Zukunft könnte es sein, dass auch wieder etwas zurückkommt. Wenn ein Blogeintrag bei Facebook […]

  3. […] Inhalte linear verteilt. Es gibt eine Quelle, deren Feed in verschiedene Services einfließt. (siehe auch Über-Aggregatoren und ihr Versagen) In Zukunft könnte es sein, dass auch wieder etwas zurückkommt. Wenn ein Blogeintrag bei […]

Schreibe einen Kommentar zu Tea Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert