Beiträge

Scheinbar seit dem 2.3.1er Release von WordPress (oder sogar noch früher) wurde im Dashboard/Tellerrand die „Incoming Links“ Sektion von Technorati in Google Blog Search geändert. Ich war sehr überrascht, dass sich WordPress von Technorati verabschiedet hat. Ob man dies als eine weitere Abkehr des einstmals besten Backlink-Systems im Web 2.0 werten soll – ja, definitiv! Zugegeben, es fiel mir wirklich erst jetzt auf, dass sich dieser Link und die dazugehörigen XML bzw. RSS Feed Integration geändert hat.

Manchmal sind Programmierer wirklich fleissige Ließchen. Eine Idee wird schnell in die Tat umgesetzt und binnen kürzester Zeit entstehen aus den Ideen wahre Glanzleistungen an Programmierkunst. Darunter finden sich auch die Social Networks im Web 2.0 als massenmarktfähige Dienstleister. Doch wie kommt man an die Daten ran, um sie zu manipulieren, sie auszuwerten, sie zu veredeln? In der Regel wird dem ein Riegel vorgeschoben oder man bekommt nur einen schwer bewachten Zugang oder eine sehr schwierig zu erlernende Sprache, mit der man die Daten je nach den Wünschen der Besitzer der jeweiligen Social Software abgreifen kann.

Eine schöne Welt sieht anders aus. Offene Standards möchte nun auch Google mit seinem Projekt „OpenSocial“ vorantreiben. Wie dem Bericht auf Techcrunch zu entnehmen ist, wird OpenSocial auf drei common APIs von Google und seinen Partnern basieren, die den Entwicklern weltweit ermöglichen, die Kernfunktionen und Informationen von Social Networks abzugreifen: Die Profil-Informationen, die Freunde bzw. Kontakte eines Users und seine Aktivitäten innerhalb des Social Networks.

Die Partner für dieses Projekt sind jeweils als Hosts oder Developers zu verstehen. Erstere sind die teilnehmenden Social Networks oder Plattformprovider wie Orkut, Salesforce, LinkedIn, Ning, Hi5, Plaxo, Friendster, Viadeo und Oracle, während zweitere durch Flixster, iLike, RockYou und Slide definiert werden.

Für meinen Geschmack ein feiner Schachzug von Google und den genannten Unternehmen im Kampf gegen „aufkeimende“ Größen wie Facebook oder MySpace, die über ihre eigenen Schnittstellen ein gewaltiges Potential abgreifen und Reichweite durch ihre einfache Nutzbarkeit nebst mehr Boden gut machen. Dennoch sehe ich die (man möge es mir gestehen) Gefahr darin, dass über Google, die mittlerweile in jedem zweiten Social Network auf irgendeine Weise fester Bestandteil mit Google Analytics, Google Maps oder ähnlichen frei nutzbaren Tools stecken, die Informationen zentral aggregiert werden. Wie ich bereits über die SchnüffelVZ im Social Web zu berichten wusste, zeigt sich auch hier, dass die Daten ein unglaublich teures und wertvolles Gut darstellen.

Wenn wir ein wenig visionär denken, wird es keine Kriege um das Wasser geben, sondern wir werden uns in ferner Zukunft um die Daten des einzelnen bekämpfen… scary halleluja!

Der Web 2.0 Szene stockt der Atem. Nach den ersten Gerüchten gaben die beteiligten Unternehmen selbst den Deal bekannt. Um es mit dem Artikel aus dem Wall Street Journal zu zitieren – Microsoft investiert fleissig in Facebook:

Microsoft Corp. agreed to invest $240 million for a 1.6% stake in Facebook Inc. that values the social-networking site at $15 billion, beating Google Inc. in a closely watched contest.

Es ist hip, es ist trendy, es ist offener als viele andere Social Networks, die optisch einwandfrei aufgebaut sind, jedoch in der Regel nur den Zweck der Kontaktsammlung erfüllen und keine zusätzlichen Buddy-Spielchen anbieten. Microsoft hat signalisiert, dass Facebook im Kampf gegen Google und die anderen Konkurrenten mehr als wichtig ist – die Tür ist geöffnet. Schön und gut für alle Beteiligten, doch für meinen Geschmack ist das etwas zu viel des Guten. Google konnte sich YouTube bereits für 1,6 Milliarden US-Dollar einverleiben und auch in Deutschland freut man sich an jeder gelungenen Investition. Für mich steht einzig und allein die Frage nach der Rechtfertigung für den Preis und die damit sehr starke Bewertung von 15 Milliarden US-Dollar für Facebook im Vordergrund.

Sonst schreit die halbe Welt auf, wenn es um ihre Kontaktdaten geht – sobald etwas durch einen Fehler oder durch beabsichtigtes Handeln öffentlich einsehbar wird, sobald man Daten massiv speichert und soziografische Strukturen den Daten entnehmen kann, sobald man auf die Person zurückschließen kann, die wirklich am Rechner bei der Dateneingabe saß… die Szenarien sind scheinbar endlos. Doch hier freut man sich und tanzt auf dem Teller – oder rümpft mal kritisch die Nase, wundert sich vielleicht – doch sorry, das ist mehr als überbewertet. Das Fratzenbuch lebt nur davon, dass wir uns alle daran beteiligen und unsere Kontaktdaten dort freiwillig hinterlegen. Was haben wir denn bitte schön davon? Nun werden die Nutzer nicht an Google, sondern an Microsoft verkauft.

Der Twitter-Clone Jaiku wird von Google übernommen. Per E-Mail Benachrichtigung und auf der Startseite von Jaiku ist die Ankündigung zu sehen:

Exciting news, Jaiku is joining Google!

While its too soon to comment on specific plans, we look forward to working with our new friends at Google over the coming months to expand in ways we hope you’ll find interesting and useful. Our engineers are excited to be working together and enthusiastic developers lead to great innovation. We look forward to accomplishing great things together.

In order to focus on innovation instead of scaling, we have decided to close new user sign-ups for now. But fear not! All our Jaiku services will stay running the way you are used to and you will continue to be able to invite your friends to Jaiku.

Damit verleibt sich der Gigant der Internetbranche einen weiteren kleinen Dienstleister des Web 2.0 ein. In einer extra dafür eingerichteten Hilfesektion finden sich einige zusätzliche Informationen zu der recht spärlichen Kommunikation.

Das Thema lautet heute: Nachgefragt! Frank Westphal äußert sich als Betreiber von Rivva zum Thema des Duplicate Contents, der Mehrfachverwertung von per RSS syndizierten Inhalte, und fordert seine Nutzer und alle „Blogsyndizisten“ (ich nenne es mal so) auf sich bei der Diskussion zu beteiligen.

Prägnant finde ich seine eigene Position im großen Spiel um Contents:

„Mit Rivva hab ich mir u.a. das Ziel gesetzt, Artikel miteinander zu vernetzen, die nicht untereinander verlinkt sind. Die gesamte Entwicklung in Richtung verwandter Stories und Gruppierung ähnlicher Themen geht in diese Richtung. Wenn ich all die „hinteren“ Seiten vor den Suchmaschinen wegsperre, verzichte ich auf 33% meines Traffics sowie auf eine mögliche spätere Monetarisierung des Service.“

Dieses Vorgehen kann ich nur unterstützen. Meiner Meinung nach sollte ein Dienstleister immer die originäre Quelle hervorheben und sich dabei selbst erst danach in der Reihenfolge einordnen lassen. Im Grunde genommen bedeutet dies, dass niemals der gesamte Inhalt, sondern nur einzelne kleinere Ausschnitte dargestellt werden sollten. Bei Rivva zeigt sich dies indem die jeweiligen Artikel nur als Anreisser dienen und jegliche „Mehrinformation“ durch den Link auf das jeweilige Blog eingesehen werden können.

Aber bei Rivva sehe ich keine Gefahr, dass irgendwer bestraft wird. Einzig und allein ist das Ranking an den Top-Positionen wichtig für einen Blogger, aber wenn man von Rivva für mehr Informationen zum entsprechenden Blog gelangt, kann man damit leben.

Munter und frivol sind wir im Netz unterwegs. Wir suchen Informationen, erfreuen uns an Wissen und ergötzen uns an der Kommunikation, die wir uns durch die neuesten technologischen Fortschritte und Entwicklungen angeeignet habe. Doch nahezu alles ist mit Werbung ausgestattet. Der wohl größte Betreiber für Textanzeigen im Internet Google AdSense startet eine Website gegen Klickbetrüger.

Doch hallo? Das ist verboten. Ich klick doch nicht auf den eigenen Kram, der bei mir hier als Werbung im Blog eingebunden ist. Aber es gibt schwarze Schafe, die ihre eigenen Linkfarmen aufbauen. Welch Umschwung in der Denkweise, denn nun sind es nicht einige wenige Klickbetrüger, sondern laut dem obigen Artikel sind ganze 30% aller Klicks mit schadhaftem Hintergrund entstanden.

Aber die PR kann auch zu solch einem Schritt geraten haben, diese neue Website ins Leben zu rufen – denn vor wenigen Tagen begann das Yahoo Traffic Quality Center um genau solche Themen im Advertisement-System von Yahoo zu überwachen bzw. zu informieren.

Google möchte Kommentare zu redaktionellen Inhalten in Google News erlauben. Dies sei auch nur den „Beteiligten“ gestattet, die in den Artikeln in irgendeiner Form erwähnt werden. Eine tolle partizipatorische Lage, die sicherlich einige Menschen zu Luftsprüngen verholfen hat. Aber halt, so einfach ist das nicht.

Ich hätte Bauchschmerzen dabei, wenn ich in meiner Funktion als Kommunikator eines Unternehmens den Journalisten nach Veröffentlichung eines Artikels dreinrede. Ich freue mich immer über Korrekturabzüge zur Freigabe und teile dann eventuelle Änderungswünsche oder Ergänzungen mit, jedoch ist es definitiv nicht meine Aufgabe alles in einem Artikel schön zu reden und bei einem veröffentlichten Artikel in Google noch großartig dagegen zu wettern, wenn etwas vielleicht einmal etwas anders ist, als es gedacht war.

In Blogs funktioniert das wunderbar, aber für die traditionelle Presse sehe ich da keinen Mehrwert sondern vielmehr das Beuteln der Redakteure und einen Kampf gegen so manche egomanische PRler. Das ganze System von Google News könnte zu einem gewaltigen Spielplatz werden, auf welchem sich jeder mit Sand beschmeißt. Abhilfe schafft da doch nur noch eine adminnistrative Kinderkrippe.

Seit Anfang April erhalte ich jeden Monat einen „Google AdSense Optimierungsbericht“ über das Administrationsfrontend im Loginbereich von AdSense. Im Prinzip ist das eine wunderbare Form der Kommunikation mit den zahlreichen Kunden, die AdSense auf ihren Webseiten integriert haben. Was läuft ab, was hat eine verbesserte Performance gegenüber anderen Anzeigen gezeigt, welche Werbeform ist die gewinnbringenste… doch das liest man da überhaupt nicht. Mittlerweile stelle ich ein wenig überrascht fest, dass der Inhalt des Optimierungsberichtes alles andere als optimiert ist:

Sie könnten Anzeigen filtern, die auf Ihrer Website eine gute Leistung erzielen.

Dieser Satz ist in allen drei Monaten immer wieder der einzige wahre Inhalt der Berichte. Neben der Tatsache, dass der Klick auf weitere Informationen nur einen Teil der FAQ ausmacht, die man sowieso sich jederzeit verinnerlichen kann, ist das einfach zu wenig. Kann man da ein wenig mehr Personalisierung für die jeweiligen Webseiten erwarten, auf denen man AdSense laufen lässt?

Manche Menschen hegen sehr konkrete Bedenken gegen Feedburner, die in jüngster Zeit Google einverleibt wurden. [ironie]Ich persönlich bin auch nicht so froh darüber, dass Google mit einer Umstrukturierung von Feedburner in absehbarer Zeit für die dunkle Seite der Macht steht.[/ironie] Einige Blogger wie Gerrit van Aaken haben eine neue Feed Adresse angekündigt und Oliver Wagner fragt genau nach – wie kann man am besten die Feedburner Abonnenten auf das echte Blog zurück holen?

Mein Tipp: Den neuen Feed direkt im alten Feed bekannt machen. Dabei Feedburner auf einen alternativen Feed umleiten, der einen „zukünftigen“ Eintrag immer als neu ausweist und gegenebenfalls jede Stunde eine Stunde extra in der Zeit addiert. Dieser zukünftige Blogeintrag weist dabei auf die neue Feed URL und den Ablauf des alten Feeds hin. Ferner wird in dem alternativen Feed, auf den ja der Feedburner mittlerweile zeigt, vor jedes Blogposting manuell eingebaut „NEUE FEED URL: …“, alle Beiträge werden auch gekürzt. So kann der Feed weiterleben und die Leute sind darauf eingestellt, dass eine neue URL das Hauptthema ist. Wer aktiv mitliest kapiert das schon…

Dieses Blog hat nur einen RSS Feed, der zwar derzeit noch auf Feedburner linkt, aber dennoch nur als Hauptabonnement für RSS mit ungekürzten Beiträgen genutzt werden sollte: https://mikeschnoor.com/feed/ – nur das und nichts anderes. ;)

Nachtrag vom Morgen danach: Mal den Teil markiert, der ironisch gemeint war und damit das Gegenteil ausdrückt von dem, was ich denke…

Es ist noch nicht einmal Ende des Monats, und schon heißt es „Zahltag„. Google schluckt Feedburner laut der Gerüchteküche mit $100 Millionen. Damit ist der Verwaltungsdienst für RSS Feeds wie viele andere Unternehmen und Dienstleister rund um das Thema Web 2.0 vom größten Datensammler der Neuzeit einverleibt worden.

Natürlich freue ich mich für die Menschen hinter Feedburner, dass aus dem Unternehmen ein großer Profit geschlagen wurde. Jedoch habe ich meine Bedenken hinsichtlich dessen, was auf alle zukommt, die Feedburner in ihren Blogs zum Branding der Feeds und zur Steigerung der allgemeinen Kompatibilität der Feeds nutzen. Im offiziellen Blog liest man jedoch noch nichts zu dem Thema…