Beiträge

Das Leben ist zu kurz für all die schlechten Texte, die nur deshalb im Web stehen, weil ihre Überschriften Nutzer zum Klicken verleiten. Höchste Zeit, endlich an die Leser zu denken.

Weiterlesen

Das Team von blogato will eine Suchmaschine speziell für Blogs erstellen. Der offizielle Start von blogato ist zwar erst am Dienstag, den 25. September 2007, doch ein ausgewählter Kreis von Blog Autoren durfte bereits in den vergangenen Tagen herein schnuppern und sich ein erstes Bild von der Plattform machen.

Neben dem mit irrelevanten Inhalten und Pornografie überlasteten Technorati und dem zeitlos daherdümpelnden Google Blogsearch soll blogato ein festes Standbein in der Blogmonitoring-Szene werden. Das System indexiert, analysiert und bewertet typischerweise die zahlreichen Blog-Einträge, ein Relevanzkriterium ähnlich wie Rivva bietet blogato derzeit nicht – und da man derweilen auf den Blogmonitor von Nico Lumma ja schon über ein Jahr wartet, ist man sowohl als Blog Autor als auch PR-Mensch immer für Neues bereit.

Amüsant ist der Gedanke, dass sich die Nutzer des Dienstes an der Indexierung und Bewertung von Blog-Einträgen aktiv beteiligen dürfen um die jeweiligen Suchergebnisse mitzugestalten – ich stelle mir das ähnlich dem Digg-Prinzip vor. Zusätzlich übernimmt eine hauseigene Redaktion die Kontrolle der Inhalte und bemüht sich die Suchergebnisse zu verbessern.

Soviel zu dem worum es geht. Auch ich habe einen closed-beta Zugang von Alexander Schäfer erhalten und war durchaus erfreut darüber, dass die Kontakt-Mail nach dem mittlerweile „berühmt-berüchtigten“ HowTo: PR mit Bloggern vollendes zufrieden stellte. Jedoch frage ich mich vielleicht auch berechtigt, wie sich genau der Robot von blogato identifiziert und wie oft er vorbeischaut? Meinen Feed hatte der Robot nicht korrekt eingelesen und verweist auf die Weiterleitung nach Feedburner, obwohl www.mikeschnoor.com/feed das Maß aller Dinge wäre. Außerdem entzieht sich mir derzeit der Sinn von blogato, wenn der Dienstleister frei am Markt verfügbar ist. Gibt es ein Finanzierungsmodell? Kann man Links buchen oder gibt es ein Beteiligungsmodell für die Blog Autoren, indem man ähnlich wie Google AdWords einen Linkplatz bzw. die Platzierung buchen kann? Verkommt ein in diesem Stadium recht überschaubares System dann zu einem mit werblichen Inhalten überflutetes System? Nunja, vielleicht klären sich die Fragen… vielleicht auch nicht – es bleibt noch ein wenig Zeit bis zum offiziellen Start… :)

Nachrichten braucht jeder Mensch. Wir wollen Informationen konsumieren. Zeitnah, aktuell, informativ. Wenn man Web 2.0 hört, fällt einem fast immer Technorati ein. Doch dieser Serviceanbieter erleidet einen Qualitätsverlust. Immer öfter fällt es mir auf, dass in den populärsten Suchanfragen beim beliebten Blogsuchdienstleister Technorati einfach nur Mist drin ist. Ich nenne es Mist, weil es keinen Informationsgehalt hat, sondern in erster Linie der Boulevard-Blogosphäre ähnelt. Hier die Beispiele an diesem Morgen:

  • Noelia scheint eine weitere Frau zu sein, die ein paar Nacktbilder von sich ins Netz geschleust hat um nur für Aufmerksamkeit und ein wenig Rummel um ihre Person zu sorgen. Das ganze als Video Porno über SMS und alle Welt geiert danach.
  • Johanna Cordona hat einen ähnlichen Fall, jedoch geht es hier eher um die Beziehungsdramatik und noch nicht so stark um pornographisches Material. Dennoch sind die Blogposts zu dem Thema einfach nur Sex-Spam!
  • Galilea Montijo ist ein Sex Skandal und spricht wiederum dafür, dass Technorati als Welt der Lustlosen gelten kann.

Der Rest dreht sich um Youtube, Myspace, Paris Hilton, einige US Politiker, Facebook… im Grunde genommen interessiert dieses Geblabber bei Technorati doch nicht wirklich, oder? Dazu kommt eventuell auch die Tatsache, dass Technorati sehr stark von Übersee genutzt wird und letztendlich sehr US-lastig wirkt, aber auch durch Lateinamerika beeinflusst wird. So langsam gewöhne ich mich an die derzeitige Struktur von Rivva um meine morgendlichen Blogosphären-News einzuholen. Ich lese lieber über die Chamäleon-Tastatur von Apple, Tanja-Anjas oder Spreadshirt, als dass ich dieses Schmuddelrati aufrufe. Geht es nur mir so oder leiden andere auch darunter?

Zu allererst habe ich ein wenig stutzig geschaut, aber der Fischmarkt fragt sich, ob das Publikum für die Nutzung von Google zahlen würde. Ausgegangen wurde von einem Preis von 5 Dollar bei 37signals, was einem meistens einfach aufbringbaren Betrag pro Monat entspräche.

Foto vom Fischmarkt (bisher ohne Genehmigung)

Wer kann sich das aber leisten?
Für ein Unternehmen ist dies sicherlich ein erschwinglicher Preis, um die Mitarbeiter tatkräftig zu unterstützen, jedoch für Einzelpersonen ist dies ein wenig zu teuer. In meinem Haushalt nutze nicht nur ich das WLAN mit nur einem PC, sondern wir haben unsere zwei Laptops und den stationären PC. Zusätzlich gibt es auch Bekannte und Verwandte, die bei Gelegenheiten wie dem gegenseitigen Computerspielen oder bei akademischen Arbeiten gerne und häufig das Netz über unser WLAN durchforsten.

Sollte der Preis sich aber pro Nase binden, und nicht von einer Gruppe der Konsumenten genutzt werden können, wendet man sich eher von der Idee ab, für sein tägliches Googling Geld zu blechen. Jedoch wenn die Familie also, was meine Freundin und sämtliche Besucher unseres Haushaltes einschließt, das vorerst fiktionale Angebot „Google für 4,99€“ unter einem Account nutzen dürfen, kommt es schon in Frage, sich darüber Gedanken zu machen, für einen Service diese Pauschalpreispolitik mitzumachen.

Was ist das für ein Produkt?
Ob ein damit verbessertes Produkt auf dem Markt ist, oder doch nur das alte in einer neuen Verpackung, ist fraglich! Neu ist an dem Produkt Google nichts, der existierende Service wird nur verteuert angeboten und ist nicht mehr frei erhältlich. Google würde nur ein altes Produkt (in neuem Gewand und Preis) anbieten, auf einem Markt, der an sich alt ist. Diese Marktdurchdringung haben sie aber schon hinbekommen durch Implementierung von zahlender Kundschaft in die Google Service Reihe – Werbung, AdWords, AdSense, Ad ad ad ad!

Wo ist denn hier die Diversifikationsbildung?
Sobald ich für etwas bezahle, sehe ich die Notwendigkeit für Premium Content. Das wäre für Google ein neues Produkt auf einem neuen Markt, der sich wie eine weite Wiese voll frischem Grün ebnen würde. Bei einer Suchmaschine wie Google bedeutet dies, dass der Service von Google sich insoweit vom aktuellen Angebot unterscheiden muss, dass der Suchindex keinesfalls die Inhalte in der Art und Weise anbietet wie bisher gängig:

  • Echte Ergebnisse
    …ich möchte keine vorgefertigten Seiten vorfinden, bei denen zahlende Kunden in den ersten 3-4 Ergebnissen der Suchergebnis-Seite auftauchen, relevante Inhalte aber nicht auftauchen.
  • Werbung Adé
    …sämtliche AdWord Angebote oder ähnliches gehören ab dann woanders hin.
  • Seriösität
    …unseriösen Kram wie Pornoanbieter oder Linkfarmen will ich auch nicht mehr sehen.
  • Deep Web
    …ist der Schwachpunkt von Google, und ohne die Referenzen des Deep Web bringt Google nichts.

Das Geld, wovon sich Google all die schönen Services für seine User leistet, würde wegfallen und niemals von einer Pauschaulgebühr von einer Hand voll Dollars oder Euro gedeckt werden. Mit diesen Denkansätzen schließe ich das Thema um „Google für 4,99€“. Die Anforderungen an ein so innovatives Suchmaschinenprodukt sind zu hoch, um sie mit dem bisherigen Google zu erfüllen. Das einzige, was sich Google leisten kann ist eine weitere Marktdurchdringung mit seinem Suchsystem.

Soeben bin ich auf ein kleines Videoarchiv von Marcus P. Zillman über Suchtechniken gestoßen. Der Einfachheit halber muss vor den Videos gewarnt werden: Zillman ist „very American“ und ebenfalls fällt seine gestenreiche Mimik auf. Weitere aktuelle Beiträge finden sich in seinem Blog wieder…

The search-engine company Yahoo released some useful tips and tricks on how to limit the sometimes aggressive behavior of their spider robot „Slurp“. In the previous months, this particular robot became one of the most annoying and invading robots of my Blogspirit account. I already used the suggested method of including the „crawl delay“ option in meta tags, tough the robot penetrates this small line of defense still. Dave Simpson suggests to enable Gzipped Files and Smart Caching to aid the process of restricting the robot’s aggressiveness. As I tested my subdomain with Netcraft, I was informed it’s Apache was using the mod_gzip/1.3.26.1a already. Since most image files for the HTML layout and formatting reside on my own server, the smart caching is little to worry about. Overall, Slurp is already restricted in it’s behavior but still very aggressive. I will try to analyse the whole situation in a near future once I’m done with the final tests.