blubblubblog

Just another WordPress.com site

Reality Mining

leave a comment »

Reality Mining – Soziogramm aus Handy und PC?

Am Ende steht ein Modell, das die Lebensgewohnheiten des Users wiedergibt.

Reality-Mining beschreibt eine Idee, einen Prozess vielmehr, der darauf abhebt, anhand der Benutzung elektronischer Geräte Aussagen über Personen zu treffen. Namensgeber des „Reality Mining“ ist Sandy Pentland, Professor für Medienkunst und –wissenschaft am Massachusetts Institute of Technology.

Er definiert seinen Forschungsbereich als „the collection of machine-sensed environmental data pertaining to human social behavior. This new paradigm of data mining makes possible the modeling of conversation contexts, proximity sensing and temporospatial location throughout large communities of individuals.“

Im Jahr 2004 starteten Pentham und sein Kollege Eagle ein Experiment, mit dem sie das Potential von Handys als tragbare Sensoren untersuchen wollten (genauere Informationen zur Durchführung und Ergebnissen der Forschung finden sich auf http://reality.media.mit.edu/user.php). Entscheidend ist die Erkenntnis, dass Daten, die wir über die Benutzung unserer Mobiltelefone permanent versenden, nicht nur Aufschluss über unsere Alltagsgewohnheiten und unser soziales Umfeld geben, sondern auch für die Rekonstruktion und Erfassung der Dynamik von Einzel- oder Gruppenverhalten herangezogen werden können.

Dass wir dichte Datenspuren hinterlassen, wissen wir längst. Wenn auch immer wieder erschreckend in ihrem Ausmaß, ist uns die Transparenz des User-Daseins längst bewusst.

Doch man mag sich mit dem Gedanken trösten, dass zwar theoretisch eine Vielzahl an sensiblen und weniger sensiblen Daten erhoben werden kann, diese jedoch in der Regel ungenutzt in der Datenbank des Mobilfunkbetreibers versinken. Und wer hätte Interesse daran, die Statusmeldungen sämtlicher Facebook-Nutzer zusammenzutragen, um etwas über die Einzelperson zu erfahren?

Ein Kunstwerk aus Statusmeldungen…

Diese Idee gewinnt durch neue Web- und Mobilanwendungen durchaus an Attraktivität. Denn sie machen es möglich, Daten zu visualisieren und damit persönliche Verhaltensweisen der User in einem attraktiven Umfeld darzustellen. Der Alltag wird zum Kunstwerk.

Anbieter einer solchen iPhone-App ist die Firma Daytum (http://daytum.com: „Daytum helps you collect, categorize and communicte your everyday data.“). Felton, einer der Gründer, lebt sein Konzept: Jedes Jahr publiziert er einen Jahresbericht seines eigenen Lebens. Freizeit, Karriere, Liebesleben – alles graphisch aufbereitet und sauber archiviert.

Ernst wird diese Spielerei dann, wenn sie den harmlosen Austausch zweier Facebook-Freunde verlässt und für die Wirtschaft nutzbar wird. Ein Zukunftsmarkt des „Reality Mining“ liegt im Marketing- und Werbebereich. Ted Morgan, Chef einer Geodatenfirma, zieht den Vergleich mit der Einschaltquote im TV-Bereich. Deren Prinzip könne auf sämtliche Lebensbereiche ausgeweitet werden.

…und dessen Vermarktung

Ein Beispiel für die ökonomische Umsetzung der Idee ist das Start-up-Unternehmen Locately, das auf seiner Homepage ein Consumer-Panel anbietet: „Our proprietary data mining engine analyzes location data collected from opted-in mobile phones to understand what consumers are doing in the real world: where they shop, how they get to and from a given location…“.

Es ist schwer abzusehen, was „Reality Mining“ für die digitale Zukunft bedeutet. Es handelt sich gewissermaßen um die Systematisierung, Automatisierung und  ökonomische Nutzbarmachung einer Fülle an Daten, die jeder User in den Äther schickt – unbewusst über das Handy oder willentlich über stündliche Statusmeldungen auf Facebook.

Abgesehen von der Transparenz eines immer „gläserneren“ Users, bietet die anschauliche Veröffentlichung der Lebensgewohnheiten, des Alltags von vielen Millionen Usern und damit potentiellen Kunden, für Firmen jeglicher Art ein enormes Potential. Denn wenn „Reality Mining“ tatsächlich Dynamiken in menschlichem Verhalten abbilden kann, dann wird der Mensch berechenbar und damit noch leichter durch subtile Werbestrategien zu beeinflussen.

Written by blubblubblog

July 6, 2011 at 9:29 pm

Posted in Uncategorized

Blogs im RuNet

leave a comment »

Präsident Dimitrij Medwedew prognostizierte im Mai 2010: „Russia is entering an era that will mark a return from representative democracy to direct democracy to a certain extent with the help of the Internet“. Medwedew betreibt schon seit Jahren einen eigenen Videoblog (http://eng.news.Kremlin.ru/video/blog), er twittert und versäumt keine Gelegenheit, die Bedeutung des World Wide Web zu betonen.

Zugleich gilt das russische Internet als das letzte freie Massenmedium, da sämtliche große Zeitungen und Rundfunksender des Landes unter der Kontrolle regierungsnaher Konzerne stehen. Welche Rolle spielt das Internet in Russland, einem laut Freedom House unfreien und diktatorisch regierten Staat (http://www.freedomhouse.org/template.cfm?page=251&year=2010&country=7904; http://de.rian.ru/world/20080117/97148887.html)?

Was bedeutet das Netz für die sich dort  tummelnden oppositionellen Stimmen, was für die Mächtigen im Kreml?

Die russische Blogosphäre…

Die Sphäre des russischen WW erreicht aktuell etwa 38 Millionen Menschen, einschließlich russischsprachiger Länder und der russischen Diaspora. Der Zugang zum Internet ist dabei stark in den Zentren Moskau und St. Petersburg zentralisiert, der Trend weist allerdings in Richtung Regionalisierung und einer zunehmenden Überwindung des digital divide. Wichtige Social Network- und Blogging-Plattformen sind Vkontakte.ru (über 14 Millionen User), LiveJournal (Über 9 Millionen User), Odnoklassiniki und Blogs.Mail.ru. Seit 2008 mischt auch die Regierung verstärkt im Internet mit, auf Anweisung des Präsidenten unterhalten inzwischen 18 von 83 Gouverneuren eigene Blogs. Die russische Blogosphäre kann als Raum freier Rede und unzensierter Diskussion gelten, ihre Größe wird auf über 11 Millionen Blogs geschätzt.

…ihre Freiheit

Allerdings steht Russland auf der Liste wegen des Verdachts auf Internetzensur beobachteter Länder, die die Organisation Reporters Without Borders kürzlich veröffentlichte (http://en.rsf.org/spip.php?page=imprimir_articulo&id_article=39766), auch Freedom House schätzt die Freiheit des russischen Internets als beschränkt ein. Dabei verwendet die russische Führung keine mit der chinesischen Strategie vergleichbaren Filterung, sondern subtilere Kontrollmethoden, um die Informationsvermittlung nicht zu verhindern, sondern vielmehr zu formen. Oftmals geschieht dies über die Ausübung von Druck auf Internetprovider. Reporters Without Borders sieht darin erste Anzeichen einer „delocalised censorship“. Ansätze russischer Internetzensur werden zudem in der Einführung von Inhaltsfiltern auf der Basis einer Liste „extremistischer Materialien“, in direkter Sperrung von Websites durch die Behörden oder auch DDOs-Attacken auf kritische Websites, wie etwa die Homepage der Nachrichtenseite NowayaGazeta Ende 2010.

… und ihre politische Bedeutung

Schlummert in der Blogosphäre ein Potential für Russlands Demokratisierung und für ein Erstarken des öffentlichen Raums?

In The Web that failed (2008) kommen Floriana Fossato, John Lloyd und Alexander Velchovsky zu dem ernüchternden Fazit, die russische Blogosphäre diene „in fact as a means of people´s adaption to the regime rather than an instrument of social change“. Andere Studien sehen in RuNet ein enormes Potential für die Liberalisierung und Informierung der russischen Gesellschaft. Die zunehmende Zitierung von Blogs durch traditionelle Medien ebenso wie die zu beobachtende „Bloggisierung“ der russischen Elite sprechen in jedem Fall für eine veränderte Wahrnehmung von Blogs und für einen damit einhergehenden Handlungsdruck auf die Politik (http://politik-digital.de/rusland-weblogs-web20).

Die Blogosphäre ist zunächst ein wichtiges Stimmungsbarometer für die Regierung und kann als Ventil für die angestaute Unzufriedenheit der „Netizens“ funktionieren, indem sie Ersatz schafft für eine staatlich kontrollierte und damit kaum existente öffentliche Sphäre im Bereich kommerzieller Medien. Die von der Forschungsstelle Osteuropa und dem Center for Security Studies (CSS) herausgegebene Onlinepublikation Russian Analytical Digest sieht in der russischen Blogosphäre einen Spiegel der Gesellschaft: „It reproduces the fundamental structural features of Russian society, such as social atomization, negative attitudes to political institutions and a strong dependence on personal networks as a source of information, opinions and support“ (kms1.isn.ethz.ch/serviceengine/…/Russian_Analytical_Digest_69.pdf). 

Die politische Bedeutung der russischen Blogosphäre ist schwer abzuschätzen. Sie fungiert mehr als ein „inwardly focused social network“ denn als globale Kommunikationssphäre, denn in russischen Blogs kommunizieren hauptsächlich Russen mit Russen in Russland über Russland-bezogene Themen. Zwar setzen sich russische Blogger intensiv und kritisch insbesondere mit Korruption, sozialer Ungerechtigkeit und aktuellen politischen Ereignissen auseinander, daraus resultiert aber meistens keine Organisation politischer Aktionen.

Insofern birgt die Blogosphäre zwar Potential für eine Öffnung und Demokratisierung der russischen Gesellschaft und ist als potentieller Schlüssel sozialen Wandels zu bewerten. Ihr Potential kann sie aber erst dann realisieren, wenn der Schritt von Meinungsäußerung zu Mobilisierung gegangen wird.

 

Written by blubblubblog

July 1, 2011 at 7:37 am

Posted in Uncategorized

Digital sortierte Welt

leave a comment »

Eine Suchmaschine, die nur das ausspuckt, was wir wirklich finden wollen. Ein Social Network, das gute Freunde von flüchtigen Bekannten unterscheidet. Und eine Zeitung, die uns so gut kennt, dass sie genau die News auf den Bildschirm bringt, die uns brennend interessieren. Alles längst keine Utopie mehr.

Auf Basis von Faktoren wie dem Surfverhalten, dem Aufenthaltsort und den Kontakten des Internet-Users filtern viele genutzte Softwares die Informationen des WWW. Die ausgegebenen Daten – seien es Suchergebnisse, Kommentare von Facebook-Freunden oder Nachrichten werden personalisiert und damit individualisiert.

Von der Sucheingabe zum Ergebnis

Hat ein Nutzer zum Beispiel regelmäßig südliche Urlaubsziele recherchiert, werden Suchanfragen nach Ländern der Region zuvorderst mit Reisetipps beantwortet. Die Suchanfragen „Ägypten“ oder „Tunesien“ spucken dann Hotels und All-Inclusive-Pakete aus, anstelle von Nachrichten über die arabische Revolution. Das Verschwinden von selten besuchten Facebook-Profilen auf der Startseite der Plattform lässt sich ähnlich erklären.

Die personalisierte Onlinewirklichkeit wird durch Algorithmen möglich. Sie berechnen auf Grundlage des Online-Verhaltens – der Datenspur eines jeden Users -, welche im Web auffindbaren Suchergebnisse am besten zum individuellen Nutzer passen.

Doch was bedeutet das Onlineverhalten eines Users konkret? Welche Daten werden zum automatischen Erstellen seines Profils genutzt?

René Pickhardt hat eine Liste der 57 Signale erdacht, die für Google relevant sein könnten: http://www.rene-pickhardt.de/google-uses-57-signals-to-filter/. Darunter fallen, so seine Annahme, neben naheliegenden Faktoren wie „our search history“ und „the language we use“ auch „our sex“, „our age“ oder  „the frequency we click advertising“. Wie nahe diese Überlegungen dem wahren Google-Algorithmus kommen, muss an dieser Stelle offen bleiben. In jedem Fall verdeutlichen Pickhardts Überlegungen, wie viel die Software, die wir benutzen, über uns weiß – und was sie damit anstellen kann.

Die „Filter-Blase“

Kritiker monieren, dass mit der Personalisierung der ausgegebenen Informationen gegensätzliche Meinungen keinen Zugang mehr zum User finden, Andersdenkende werden so  aussortiert.

Vielmehr seien wir in einer „Filter-Blase“ gefangen, konstatiert Eli Pariser,  Präsident  der Interessensgemeinschaft MoveOn.org: http://leanderwattig.de/index.php/2011/06/04/eli-pariser-uber-gefahren-der-personalisierung-des-internets-filter-bubbles/.

Das Problem sieht er nicht nur in dem Vorsortieren als solchem, sondern vor allem in der Tatsache, dass dies unbewusst geschieht. Wenn die meisten Nutzer nicht wissen, dass ihnen gefilterte Informationen geliefert werden, ahnen sie auch nicht was ihnen entgeht und drehen sich damit unwissentlich um sich selbst.

Doch bedeutet eine digital sortierte Welt wirklich eine Gefahr? Bietet sie dem User denn nicht auch Luxus?

Service oder schleichende Gefahr?

Es ist ein kostenloser und – zugegeben – unbemerkter Luxus, aber tatsächlich bedeutet das Filtern von Informationen eine enorme Zeit- und Aufwandsersparnis für den Nutzer.

Die Software strukturiert die unübersichtliche digitale Welt und die unendlich vielen Informationen vor und erleichtert dem Einzelnen die Orientierung – nicht willkürlich zudem, sondern maßgeschneidert.

Doch indem die Software unsere Bequemlichkeit bedient, bedeutet sie auch eine schleichende Gefahr. Der Nutzer bewegt sich in einer auf ihn zugeschnittenen digitalen Welt und wird damit langfristig der Chance beraubt, die Errungenschaften des Web – Meinungsfreiheit, freier Zugang zu Informationen weltweit … – zu nutzen.

Anstatt seinen Horizont durch Neues, durch fremde Ansichten und abweichende Meinungen zu erweitern, findet er sich in seinem Weltbild bestätigt. Was relevant ist, wird anhand der Nutzer-Präferenzen bemessen –  doch wie sollen sich die Interessen und Präferenzen dann weiterentwickeln?

Die Debatte um die „Filter-Blase“ thematisiert das Vorsortieren von Informationen in unterschiedlichen Web-Services. Dabei bedarf es meiner Ansicht nach jedoch einer wesentlichen Differenzierung.

Gewollt oder unbemerkt gefiltert?

Wünscht der Nutzer Orientierungshilfe? Ist er sich dessen bewusst?

Auf diese Weise lässt sich trennen zwischen einer der Mehrzahl der User unbewussten (und damit ungewollter bzw. nicht explizit gewünschter) Filterung, etwa bei google oder facebook einerseits; und der Inanspruchnahme von Software, die explizit dem Ziel der Orientierung dient, beispielsweise RSS-Reader, Twitter-Folgschaften oder Blogrolls andererseits.

Während ersteres durchaus kritisch als unbewusst vorgenommene Einschränkung des User-Horizonts zu bewerten ist, handelt es sich bei letzterem um einen Service, der uns das Leben im Informations-Dschungel des WWW erheblich erleichtert.

Indes stellt sich die Frage, ob das individualisierte Vorsortieren von Informationen vom Nutzer wirklich gewünscht ist. Das Berliner Pilotprojekt „Niiu“, Deutschlands erste personalisierte Tageszeitung, hat einen „Filter“ in der analogen Welt zu kommerzialisieren versucht. Die Idee – ein analoger Feedreader: http://blog.niiu.de/.   Abonnenten, so das Geschäftsmodell, können sich aus 18 regionalen, nationalen und internationalen Tageszeitungen und 600 Internet-Angeboten eine Wunsch-Zeitung zusammenstellen, die ihnen zu einem moderaten Preis von 1,80 Euro täglich geliefert wird.  Im Frühjahr 2011 musste Niiu seinen Betrieb vorläufig einstellen – zu wenig Nachfrage (http://www.taz.de/1/leben/medien/artikel/1/die-gescheiterte-quellenvielfalt/).

Dennoch liegen in solchen und ähnlichen Angeboten erheblich Potentiale – gut möglich, dass sich personalisierte Zeitungen langfristig durchsetzen.

Denn wenn sich der Leser der Filterung bewusst ist, bewegt er sich nicht in einer ignoranten Blase, sondern in einer bewusst vorstrukturierten Welt.

Transparenz ist folglich alles – Transparenz und Kontrolle durch den User.

Written by blubblubblog

June 7, 2011 at 5:58 am

Posted in Uncategorized

Cloud Computing – IT aus der Wolke

leave a comment »

IT aus der Wolke ist ein milliardenschwerer Zukunftsmarkt. Allein im Jahr 2010 belief sich der Umsatz in Deutschland auf 1,1 Milliarden Euro – bis 2015 sollen die Einnahmen im Schnitt um mehr als 40 Prozent steigen.

Doch was für die einen wirtschaftliches Potential und enorme Chancen bedeutet, ist für die anderen ein weiterer Schritt hin zu einem Mehr an Risiko und einem Weniger an Kontrolle.

Der Bundestag debattierte unlängst darüber, das Bundesministerium fördert sie (http://www.bmwi.de/BMWi/Navigation/Presse/pressemitteilungen,did=361742.html) und die Netzgemeinde blickt teils skeptisch, teils enthusiastisch auf die innovative Technik des Cloud Computing.

Wie funktioniert die Internet-Wolke? Was kann sie – für den privaten User, für Unternehmen, für die Betreiber?

IT aus der Wolke

Cloud Computing ist ein internetzentrierter Entwicklungsansatz, bei dem ein Anbieter komplexe Leistungen aus der Soft- und Hardware anhand eines abstrakten Dienstes zur Verfügung stellt. Über ein Netzwerk können IT-Infrastrukturen abgerufen und damit dynamisch an den Bedarf angepasst werden.

Das bedeutet, dass ein Teil der IT-Landschaft auf Nutzerseiten nicht mehr selbst betrieben oder lokal bereitgestellt wird, sondern bei Anbietern als Dienste zu mieten sind – Dienste aus der Wolke.

Was so neu klingt, nutzen viele User seit Jahren. Cloud Computing – das sind auch E-Mail-Konten, Online-Kalender, Office-Tools oder RSS-Reader, die plattformunabhängig im Webbrowser laufen. Die benötigten Programme lagern in zentralen Serverparks von Unternehmen, z.B. Google. Diese Gratisangebote waren Vorreiter der Cloud-Entwicklung, inzwischen verlagern immer mehr Unternehmen ihre Daten, Anwendungen und Netze auf Server-Farmen von Anbietern wie Amazon, Microsoft oder IBM.

Der Gedanke des Cloud Computing ist nicht neu; es handelt sich um eine Form des Outsourcing, wobei typischerweise organisationsintern erledigte Aufgaben an ein externes Unternehmen weitergegeben werden. Eine Form der Arbeitsteilung mit dem Ziel gesteigerter Effizienz – seit Jahrhunderten in der analogen Welt zu beobachten.

Zugleich steckt schon im Namen das Besondere des digitalen Outsourcing; je komplexer die abrufbaren Dienste und Infrastrukturen sind, desto weniger lassen sie sich für den User zurückverfolgen. Sie kommen aus einer abstrakten, kaum durchschaubaren Wolke – umgekehrt schickt auch der Nutzer seine Daten auf einen ungewissen Weg.

Der IT-Baukasten

Nach dem Baukastenprinzip kann er sich die benötigten Leistungen zusammenstellen und profitiert damit von der Skalierbarkeit der Services. Auf der anderen Seite stellen die Serverparks der großen IT-Unternehmen mehr Leistung bereit als sie verbrauchen können; um die Rechnerauslastung zu optimieren, bieten die Firmen ihre Rechenpower zum Verkauf – und freuen sich über willige Abnehmer.

Dabei übernehmen die Betreiber die komplette IT-Infrastruktur.

Unterscheiden lassen sich drei On-Demand-Servicemodelle:

–        Infrastructure as a Service (IaaS); hier bieten die Rechnerwolken Zugang zu virtualisierten Computer-Hardware-Ressourcen,

–        Platform as a Service (PaaS); über die Plattform kann der User Programmierungs- oder Laufzeitumgebungen nutzen und

–        Software as a Service (SaaS); der Nutzungszugang zu Softwaresammlungen und Anwendungsprogrammen.

Je nachdem, welches Netzwerk den Zugang zur Cloud ermöglicht, können vier Liefermodelle differenziert werden – Public, Private, Hybrid und Community Cloud. Genauere Infos finden sich in diesem Beitrag: http://business.chip.de/artikel/Cloud-Computing-Die-naechste-Computer-Revolution-4_39928714.html.

Chancen der Cloud…

Die Vorteile der Cloud-Nutzung liegen auf der Hand:

Die Nutzer müssen sich Server und Software nicht selbst anschaffen, sondern können gezielt die benötigten Kapazitäten mieten. Anstelle hoher Investitionen treten variable und kalkulierbare Kosten – das spart Geld, Aufwand und sorgt für Flexibilität.

Indem der Verwaltungsaufwand für Hard- und Software-Bereitstellungen sinkt, kann Personal eingespart werden, ein zusätzlicher Kostenfaktor.

Aus wirtschaftlicher Sicht liegen die Chancen der Technik damit in gesteigerter Effizienz und Wachstumschancen; vor allem kleine und mittlere Unternehmen können von den Einsparungen an Fixkosten profitieren.

…Risiken und Nebenwirkungen?

Keine technische Neuerung ist frei von Fehlern, bislang hat noch jede Zweifel geweckt. Kritiker des Cloud Computing richten ihren Blick insbesondere auf sicherheitstechnische Probleme (http://www.scip.ch/?labs.20091127).

Einer der wesentlichen Kritikpunkte ist die fehlende Transparenz des Systems: durch die Abstrahierung kann der Kunde nicht mehr erkennen, wer wo wie mit seinen Daten umgeht. Dadurch hat er keinerlei Kontrolle über Daten und Prozesse und gerät stattdessen in eine direkte Abhängigkeit vom Anbieter.

Ein weiteres grundlegendes Problem ist im Wesen der Zentralisierung abrufbarer Leistungen begründet – durch das Teilen von Ressourcen werden Dienste, Kundendaten und Anbieterdaten vermischt; je mehr Mechanismen in der Cloud zusammenlaufen, desto anfälliger werden die Dienste für potentielle Angriffe.

Die Cloud wird zum zentralen Angriffspunkt.

Eine weitere Befürchtung vor allem der Unternehmen richtet sich auf den Datenschutz. Das Auslagern zentraler Unternehmensdienste und –daten erhöht das Risiko von Industriespionage und Produktkopien – dies hätte fatale Folgen, insbesondere für KMUs.

Liegt die Zukunft in der Cloud?

Dass das Cloud Computing ein Zukunftsmarkt ist, steht bei Experten außer Frage.

Fraglich ist jedoch, inwieweit sich das Modell nicht nur in der Privatwirtschaft, sondern auch in der öffentlichen Verwaltung durchsetzen wird. Während etwa die USA Cloud-Dienste vermehrt in Anspruch nimmt, scheint dies in Deutschland noch in weiter Ferne zu liegen. Probleme liegen auch hier in Rechtsfragen zu Sicherheit und Datenschutz.

Letztlich sind die Risiken der Cloud nicht von der Hand zu weisen. Outsourcing bedeutet immer auch Abgabe von Verantwortung und Kontrolle – in der digitalen wie in der analogen Welt.

Will der Nutzer Kosten und Arbeit sparen, muss er ein Abhängigkeitsverhältnis zu immer einflussreicher werdenden IT-Unternehmen in Kauf nehmen. Und kaum kalkulierbare Risiken.

 

Written by blubblubblog

May 31, 2011 at 8:38 am

Posted in Uncategorized

Web-Währung Kulturwertmark?

leave a comment »

Web-Währung  Kulturwertmark?

Lässt sich ein gerechter Lohn für Künstler mit dem nutzerfreundlichen Zugang zur Kunst und einem freien Markt im Internet vereinbaren?

Der Chaos Computer Clubs versucht sich an dem scheinbar Unmöglichen und schlägt hierzu ein neues Konzept vor – die  Kulturwertmark. Sie soll die Diskussion um die Finanzierung von Kunst und Kultur im digitalen Zeitalter neu beleben.

Was ist von dem Vorschlag zu halten? Ist er umsetzbar? Wo liegen Chancen, wo Gefahren der digitalen Kultur-Währung?

Das Prinzip…

Das Prinzip des Kulturwertmark-Systems ist simpel: der User soll durch diese Form des digitalen Micropayments direkt festlegen können, welche Künstler wie viel Geld von ihm bekommen. Jeder Nutzer zahlt einen festen Monatsbeitrag in das System ein; der wird in Form von Kulturwertmark an einzelne Künstler transferiert und in Euro ausgezahlt.

Die kollektive Belohnung für die Konsumenten: nach einer gewissen Zeit oder nach dem Erreichen eines gewissen Einkommensniveaus auf Seiten des Künstlers gehen die Verwertungsrechte für das Werk automatisch auf die Öffentlichkeit über, d.h. es wird frei zugänglich (Details: http://www.ccc.de/de/updates/2011/kulturwertmark). Dies würde eine deutliche Reform des bisher gültigen Urheberrechts bedeuten, insbesondere eine drastische Kürzung der Schutzfristen und die Legalisierung nichtkommerzieller Nutzung und Verbreitung.

Damit das System funktionieren kann, bedarf es eines großen Volumens sowohl auf der Seite der Einzahler als auch der Zahlungsempfänger, d.h. der registrierten Künstler. Der Chaos Computer Clubs schlägt hierzu vor, die Nutzer flächendeckend durch einen Zuschlag zum Internet-Breitbandanschluss zu beteiligen, den er dann als die anonyme Micropayment-Einheit Kulturwertmark zurückerhält und als digitales Zahlungsmittel für Kultur verwenden kann. Für den Fall, dass Teilnehmer die eingezahlten Beträge nicht innerhalb einer gewissen Frist ausgeben, ist vorgesorgt: der Rest wird automatisch analog zur Verteilung aller vergebenen Beträge verteilt.

… realisierbar?

Der Grundgedanke ist eingängig, auch die Umsetzung scheint im Wesentlichen praktikabel, doch es werden verschiedene Zweifel an der Realisierbarkeit des Konzepts geäußert.

Zum einen ist da das typische Problem des Internets, sein Charakter als nicht-nationaler Markt. Eine nur nationale Einführung des Systems mit all seinen urheberrechtlichen Implikationen ist angesichts der gerade im Bereich Kommunikation stark europäisierten Gesetzgebung problematisch – eine europaweite Durchsetzung des Konzepts angesichts der Komplexität der Entscheidungsprozesse und der vielfältigen Differenzen in den einzelnen Mitgliedsstaaten schwer vorstellbar. Zudem werden kritische Fragen zum Verständnis der Kulturwertmark als Zahlungsmittel aufgeworfen – was bedeutet das für finanz-politische Aspekte wie Inflationsgefahr oder das Verhältnis von Angebot und Nachfrage (http://freiheitsworte.de/2011/05/10/kulturwertmark-kulturflatrate)?

… und gerecht?

Ein weitgehenderes und durchaus grundlegendes Problem im Sinne der Gerechtigkeit könnte in der wenig gewissenhaften Verwaltung der Kulturwertmarkkonten durch die User liegen; in diesem Fall wird alles überschüssige Geld entsprechend der sonstigen Verteilung ausgeschüttet.

Liegt hierin nicht eine gewisse Gefahr der Zirkularität, wie sie auch schon im GEMA-System erkennbar ist? Wenn einige wenige engagierte Nutzer – darunter die Online-Abteilung der Produktionsfirmen oder andere involvierte Konzerne – ihre Kulturwertmarkvorräte marktstrategisch einsetzen oder aber das System so manipulieren,  dass die präferierten „Kunstwerke“ in der Kulturwertmark-Verteilung auf die vorderen Plätze rücken, dann fällt diesen automatisch auch das digitale Vermögen aller übrigen Internet-User zu.

Das Kulturwertmark-System könnte zur digitalen Spekulation instrumentalisiert werden.

Problematisch erscheint auch der asymmetrische  Verpflichtungsgrad der Systemteilnehmer; die User müssen, die Künstler können teilnehmen. Wird dies dem Anspruch einer Wahrung des Wettbewerbs wirklich gerecht?

Chancen und Risiken der Kulturwertmark

Es ist nur schwer absehbar, ob die Verwirklichung des Systems von wesentlicher Bedeutung für den Wert digitaler „Kunstwerke“ wäre.

Schon das Ansinnen des Konzepts impliziert ein gesteigertes Maß an Anerkennung für digital verfügbare Kultur und einen aus meiner Sicht zu befürwortenden Perspektivenwechsel im Umgang mit den konfligierenden Interessen: weg von einer Politik der Restriktion und Sanktion – hin zu einem Ansatz der Legalisierung ohnehin kaum vermeidbaren Verhaltens und zu einem Mehr an Selbstbestimmung durch den User.

Hierin mag zugleich die größte Chance des Systems liegen.  Die größte Gefahr liegt – neben den erwähnten Verteilungsproblemen aufgrund der möglicherweise starken Asymmetrie von Angebot und Nachfrage – sicherlich in der Anfälligkeit für Manipulation.

Zudem ist fraglich, inwieweit der Vorschlag auf Gegenliebe bei den zur Kasse gebetenen Konsumenten stoßen wird – warum für etwas bezahlen, was illegal ohnehin meist verfügbar ist? Ist es gerecht, von allen Usern einen einheitlichen Beitrag zu verlangen und das sehr unterschiedliche Rezeptionsverhalten außen vor zu lassen? Andererseits würde sich im Fall der Freiwilligkeit das Trittbrettfahrer-Problem stellen; wozu für etwas bezahlen, das dank der anderen User sowieso bald frei zugänglich ist?

Ein Aufgreifen des Konzepts durch die Politik erscheint in absehbarer Zeit ohnehin unwahrscheinlich. Bundesjustizministerin Leutheusser-Schnarrenberger verwehrte sich gegen das neue System denn “wenn man sagt, dass nach einer gewissen Zeit sowieso alles frei ist, dann ist das Urheberrecht ja ganz weg“ (http://www.spiegel.de/netzwelt/netzpolitik/0,1518,762247,00.html).

Written by blubblubblog

May 22, 2011 at 11:45 am

Posted in Uncategorized

Kampf dem Plagiieren

leave a comment »

1.218 Plagiatsfragmente aus 135 Quellen auf 371 von 393 Seiten in 10.421 plagiierten Zeilen. So lautet die Bilanz von GuttenPlag, der anlässlich der Affäre um den Doktortitel des Ex-Verteidigungsministers Karl-Theodor Freiherr zu Guttenberg eingerichteten Wiki – ihr Ziel: „kollaborative Plagiatsdokumentation“. Das Forum wehrt sich in Anspruch und Selbstverständnis gegen Vorwürfe der Parteilichkeit und Hetze: „Wir möchten klarstellen, dass diese Aktion nichts mit politischer Ausrichtung, persönlicher Schmutzkampagne oder ähnlichem zu tun hat. […] Unser Ziel ist, die wissenschaftliche Integrität eines Doktortitels in Deutschland zu sichern, damit auch weiterhin eine korrekte wissenschaftliche Arbeitsweise von Trägern eines solchen Titels erwartet werden kann“ (http://de.guttenplag.wikia.com). GuttenPlagWiki war die erste einer Reihe von Online-Plagiatssammelstellen, die sich die Durchleuchtung primär prominenter Dissertationen vorgenommen haben. Dabei werden die ad hoc-Foren immer dann gebildet, wenn das Gerücht einer Schummelei die Runde macht und sich ein systematisches Durchleuchten des Internets nach Spuren des Betrugs zu lohnen scheint.

Prominente Beispiele

Nachdem es um Deutschlands beliebtesten Plagiator leise geworden war, gewinnt das Thema nun erneut an Brisanz. Nicht nur der an der Uni Tübingen promovierte CDU-Politiker Matthias Pröfrock verzichtete (vorübergehend) auf seinen Doktortitel, nachdem Plagiatsjäger ihm auf die Schliche gekommen waren; auch der Stoiber-Tochter Veronica Saß wurde am 11. Mai durch die Universität Konstanz offiziell ihr Titel entzogen, nachdem ein Ableger von GuttenPlagVroniPlag – das ausufernde Abschreiben aufgedeckt hatte. Und schließlich wird nach zu Guttenberg ein weiteres beliebtes, junges Politikergesicht zumindest vorübergehend aus der Tagesschau verschwinden. Die FDP-Politikerin Silvana Koch-Mehrin trat in Reaktion auf Verdächtigungen der Online-Plagiatsjäger und zuletzt auch der Uni Heidelberg von allen politischen Ämtern zurück. Die Jagd auf Plagiate zieht weite Kreise.

Die Plagiatsjagd funktioniert wie ein kollaboratives Puzzlespiel

Das jeweilige Wiki bietet das Spielbrett, es nennt die Spielregeln und gibt Tipps und Tricks zum Aufspüren der plagiierten Stellen. Dann ist es an den Usern, das Wiki bei der Suche nach abgeschriebenen Teilen der Arbeit zu unterstützen. In eine „InBox“ lassen sich neue Informationen oder Verdachtsfälle einreichen, die Homepage verrät Tools und Hinweise darauf, wie die Internet-Recherche nach Zitaten optimiert werden kann. Die Wikis leben vom Mitmachen; entsprechend sind sie offen und transparent und laden zur Partizipation, zur „Mithilfe“ ein – auf diese Weise kann sich der User als Teil einer Gemeinschaft von Detektiven, als Teil einer großen Mission fühlen. Das Prinzip ist einfach, aber es funktioniert. Vier Augen sehen mehr als zwei, Millionen User erhöhen die Chance auf verwertbare Funde. Zugleich bedeutet das Engagement für den einzelnen Plagiatsjäger – auch PlagHunter genannt – nicht viel Aufwand; er kann, muss aber nicht viel Zeit investieren und trägt trotzdem zu der sich entwickelnden Dynamik bei.

Die Chancen und Möglichkeiten der massenhaften und gemeinschaftlichen Suche nach wissenschaftlicher Schummelei und Betrug im Netz liegen auf der Hand. Der Fall Guttenberg wäre ohne einen Zufallsfund im Internet nicht ins Rollen gekommen, ohne die Dynamik und die Öffentlichkeit der Netzgemeinde wäre das Echo der Empörung auch in den klassischen Medien vermutlich wesentlich verhaltener ausgefallen. Und eine so groß angelegte Recherche durch Laien und Hobby-Fahnder ist schlichtweg nur durch die Vernetzung des Internets möglich. Und doch entbehrt die Gefahr für Plagiatoren durch das Netz nicht einer gewissen Ironie.

Denn das Internet hat, wie der Grazer Professor Hermann Maurer und seine Mitarbeiter  ausführen, das Plagiieren einfach und bequem gemacht und dadurch zu einem Massenphänomen werden lassen: Maurer schätzt anhand von Stichproben, dass etwa 30% aller studentischen Arbeiten Plagiate enthalten. Das Internet hilft also sowohl Plagiatoren als auch Plagiatsjägern – die einen finden leichter Texte, die sie kopieren können, die anderen entdecken Kopien schneller. Das Internet ist daher sicher nicht der Tod der Plagiatoren, wie der Blogger Achim Lorenz konstatiert (http://www.humanithesia.org/index.php/blog/guttenberg-plagiate-und-das-werkzeug-internet.html).

Quo vadis, GuttenPlag?

GuttenPlag hat sich als eine Institution etabliert, die nicht nur im Bereich der „Laienforschung“, sondern auch in der journalistischen Sphäre einige Reputation erworben hat. GuttenPlag ist eine Marke, deren Name untrennbar mit einer so einfachen wie eingänglichen Message verbunden ist:

„Jede Persönlichkeit des öffentlichen Lebens, die sich auf unlautere Weise einen Doktorgrad verschafft, indem sie in ihrer Dissertation plagiiert, hat künftig damit zu rechnen, auch noch Jahre später die Konsequenzen für derartiges Fehlverhalten tragen zu müssen!“ http://de.guttenplag.wikia.com).

Auf der Homepage des Projektes werden verschiedene Szenarien für die Zukunft der Initiative diskutiert, darunter folgende Perspektiven: die „plagiatsbezogene Analyse weiterer Dissertationen“, „Grundlagenarbeit zu Plagiarismus und anderen Formen wissenschaftlichen Fehlverhaltens“ sowie „Netzwerk-Arbeit zum Auf- und Ausbau der PlagHunter-Bewegung“.

Man wird sehen. Zunächst darf sich GuttenPlagWiki nun über eine Nominierung für den Grimme Online Award freuen. Seine Leistung habe „letztlich zum Rücktritt zu Guttenbergs geführt und eine gesellschaftliche Diskussion über Ethik, Moral und Verantwortung entfacht“, so die Begründung der Nominierungskommission.

Written by blubblubblog

May 14, 2011 at 3:34 pm

Posted in Uncategorized

Social Media Marketing

leave a comment »

Social Media ist eines der zentralen Medienphänomene  unseres Jahrzehnts. Es ermöglicht die Vernetzung von Millionen Internetusern durch das Entstehen neuer Räume der Kommunikation und Interaktion. Mit der Nutzung der vielfältigen Angebote ist in einem nächsten Schritt auch die Kommerzialisierung von Social Media verbunden. Die Instrumentalisierung von Plattformen, Netzwerkstrukturen und dort verorteten Kommunikationswegen für Werbung und Marketing ist eine bedeutende Entwicklung mit großer Zukunft. Social Media Marketing (SMM) beschreibt das Konzept eines Online-Marketings, das die neuartigen Marketingpotentiale verschiedener Social Media Angebote fokussiert. Die Komplexität der damit erfassten Strukturen und Interaktionswege stellt Unternehmen vor Herausforderungen. Denn SMM bedarf nicht nur eines professionellen Umgangs mit Instrumenten wie social networks, twitter und blogging – die bidirektionale Kommunikationskultur des Web 2.0 stellt darüber hinaus das Kommunikationsmodell klassischer Werbung infrage. Insofern ist SMM nicht nur aus ökonomischer, sondern auch aus medienwissenschaftlicher Perspektive ein höchst relevantes und zukunftsweisendes Phänomen.

Wie funktioniert Social Media Marketing? Worin liegen Chancen und Risiken der Strategie?

Die zugrunde liegende Idee ist einfach: Branding- und Marketingkommunikationsziele sollen erreicht werden, indem das werbende Unternehmen sich an verschiedenen Social  Media Angeboten beteiligt.  Innerhalb eines Zielmarktes, z.B. der Blogosphäre, tritt das Unternehmen mit der Zielgruppe in direkten Kontakt. Die Zielgruppe besteht damit insbesondere aus der Gruppe der Early Adopters, sie lässt sich – aus Sicht der Marketingstrategen – anhand des Nutzungsverhaltens der verschiedenen Web 2.0-Angebote erfassen und steuern. Besonders erwünscht sind entsprechend Meinungsführer bzw. besonders stark vernetzte User, die als Türöffner zu neuen Kreisen (potentieller) Kunden dienen können. SMM lässt sich als Reaktion der Industrie/ Unternehmen auf das veränderte Nutzungsverhalten der technisch versierten und jungen werberelevanten Zielgruppe begreifen, die sich den Strategien klassischer Print- oder TV-Werbung entzieht. Zugleich lässt sich SMM nur bedingt mit den Mechanismen klassischer Werbung verstehen. Denn anstelle die 1:n-Kommunikation eines Werbespots oder Beschwerdeanrufs im Callcenter tritt eine bidirektionale n:n-Kommunikation, das Unternehmen ist im Falle der Beschwerde nur noch ein Adressat neben Millionen von Usern. Dies bedeutet eine gesteigerte Komplexität der Marketingkommunikation und eingeschränkte Kontrollmöglichkeiten.

Drei wesentliche Ziele stehen im Fokus des SMM: Erstens die Generierung von Aufmerksamkeit für die Marke bzw. das Produkt, zweitens das Initiieren von Online-Unterhaltungen zu Unternehmensinhalten und drittens die Animierung der Nutzer zum Teilen von Unternehmensinhalten mit ihrem jeweiligen Netzwerk. Der Kern des Marketingkonzepts ist die Online-Variante der Mundpropaganda. Auf diese Weise sollen ein positives Markenimage kreiert und gepflegt (Reputation Management), die Markenbekanntheit (Brand Awareness) erhöht und Kunden akquiriert werden. Das „Empfehlungsmarketing“ spekuliert darauf, dass das innerhalb einer Online-Community bestehende Vertrauen durch die Empfehlung, das „Like“ eines Unternehmensinhalts auf diesen übertragen wird – die persönliche Glaubwürdigkeit des vernetzten Users erhöht die Reputation des Unternehmens. Ein stärker kontrollierbares Instrument des SMM sind die Social Media Relations,  Pressemitteilungen 2.0, die gezielt Informationen auf Online-Plattformen positionieren und kanalisieren. Es lässt sich eine Vielzahl von SMM-Strategien differenzieren, darunter den Aufbau eigener Communities, die „Unterwanderung“ bestehender Netzwerke, Sponsoring von Plattformen oder auch das Virale Marketing. Bei letzterem wird ein Werbeclip in viele kleine Portale eingestreut; verbreitet er sich via Facebook, Twitter oder andere Kanäle, ist das Kalkül aufgegangen – mit wenig Aufwand wurde ein über klassische Wege nicht greifbares Publikum erreicht.

Das Virale Marketing bringt den entscheidenden Vorteil des SMM auf den Punkt: die Nutzung einer kostengünstigen Plattform als Türöffner zur gewünschten Zielgruppe. Auch wenn das nötige Budget für die Anfangsaktivierung des SMM relativ gering ist, darf der Aufwand einer langfristigen Aufrechterhaltung der Social-Media-Präsenz nicht unterschätzt werden. So vergleicht  der Social-Media-Experte Jens Schmidt Social Media mit einem „Tamagotchi“ – „einmal ins Leben gerufen, will es auch immer gepflegt werden“. Nimmt es das Unternehmen mit der Kundenorientierung ernst, kann sich das niedrige Seeding-Budget durchaus zu einem zeitaufwendigen und damit kostspieligen Kundenservice und Monitoring ausweiten. Zudem birgt das SMM, so chancenreich es sein mag, die Gefahr des Kontrollverlustes. Die Eigendynamik der Feedback-Loops kann ein negatives Image verbreiten, Negativ-Kampagnen im Netz können wiederum einen enormen sozialen Druck aufbauen und das Unternehmen in die Ecke drängen. So geschehen im Nestlé-Kitkat-Skandal 2010 – nachdem Greepeace in einem Videoclip einen Kitkat-Riegel mit einem abgeschnittenen Gorilla-Finger verglichen hatte, sah sich Nestlé gezwungen, den Verzicht auf Palmöl bei der Produktion zu verkünden. SMM funktioniert, solange sich die User-Kommunikation moderieren lässt; zugleich lohnt sich etwa das Viral Marketing aber geraden dann, wenn die Kommunikation eine Eigendynamik entwickelt. Ein riskantes Spiel. Auch aus Sicht der User erscheint der Nutzen des SMM ambivalent. Einerseits wird der Kunde zum König, indem er aktiv in die Unternehmenskommunikation eingebunden wird und Einfluss auf dessen Außendarstellung erhält. Andererseits stellt sich die Frage, wie erwünscht das Vordringen von Werbung in Social-Media-Kanäle für den User ist. Problematisch scheint auch die Durchdringung genuin sozialer und häufig zur Kommunikation privater Inhalte und Pflege persönlicher Kontakte genutzter Netzwerke sowie deren Instrumentalisierung und gegebenenfalls Manipulation zu kommerziellen Zwecken. Dies birgt insbesondere datenschutzrechtliche Risiken. Die Zukunft wird zeigen, wie erfolgreich das SMM sein wird. Als Monitoring- und PR-Instrument für das Unternehmen, zur Steigerung der Kundenzufriedenheit und Transparenz für den User.

Quellen:

–        http://meedia.de/werbung/social-media-ist-wie-ein-tamagotchi/2011/05/06.html

–        http://www.slideshare.net/griesbau/entwicklungstrends-des-onlinemarketing-suchmaschinen-und-social-media-marketing

–        http://netzwertig.com/2008/12/18/werbung-das-komplexitaetsproblem-von-social-media-marketing/

–        http://www.seo-united.de/blog/internet/social-media-in-zahlen.htm

Written by blubblubblog

May 10, 2011 at 6:55 pm

Posted in Uncategorized