Skip to content

Eines der bösesten Probleme bei der schleichenden ...

Eines der bösesten Probleme bei der schleichenden Übernahme unseres Lebens durch KI-Systeme (eher Machine Learning, aber hey, Marketing!) ist, dass Menschen instinktiv weniger Zurückhaltung haben, ihre persönlichen Details einer Maschine zu geben als einem Menschen. Da gibt es Studien zu, insbesondere bei Dingen, die Menschen peinlich sind, ist das so. Beispiel: psychologische Probleme wie PTSD oder Depressionen.

Und da ist ein wichtiger Datenpunkt, der mir viel zu häufig untergeht, dass Firmen (natürlich!) der Reihe nach bescheißen, wenn es um KI geht. Die behaupten, sie hätten eine geile KI, und am Ende ist das ein Callcenter in irgendeinem furchtbaren Land mit den ärmsten Schluckern aus deren Gesellschaft, mit Ultra-Minimum-Wage und so weiter. Nix KI weit und breit. Denn, stellt sich raus: KI ist gar nicht so einfach. Da muss man investieren. Es gibt zwar, wie auch beim Programmieren und Statistik, eine ganze Bullshit-Branche, die ihre Produkte auf der Prämisse verkauft, dass die SO EINFACH ZU BEDIENEN seien, dass man da bloß ein paar Lego-Steine zusammensetzt und dann … wird das natürlich Kacke am Ende. Und weil so viele Startups eh scheitern und die Leute nur noch so Zocker-Spiele spielen, behaupten dann halt Startups gerne mal, sie hätten Wunder-Tech am Start, wenn sie bloß auf Amazon Mechanical Turk das Formular-"Einscannen" von indischen Kinderarbeitern machen lassen. Hey, ist ja nur bis zum IPO! Dann haben wir das Geld, um mit der Lösung des Problems anzufangen, das gelöst zu haben wir gerade unlauter vorgeben!

Ich bin ja eh jemand, der sich gerne und häufig über Leute aufregt, die irgendwelche Schrott-Tools zusammenklöppeln und dann glauben, sie hätten was geleistet, oder gar Erkenntnisse gewonnen. Auf "Übermedien" gibt es gerade so einen Fall. Da hat jemand ein Visualisierungstool genommen und da irgendwelche Twitter-Follower-Graphen reingeworfen. Und tut jetzt so, als könne man am Ergebnis irgendwas ablesen. Die mitschwingende Prämisse ist, dass wenn jemandem viele Nazis folgen, dass der dann wohl auch ein Nazi sein wird. Also genau das linke Ausgrenzen via Sippenhaft, das mich schon seit Jahren aufregt. Du wurdest in der Nähe von DEM DA gesehen, und der ist doof, also bist du auch doof.

Aber dieses Mal gibt es einen lustigen Winkel, weswegen ich das auch hier blogge. Ich selbst mache ja nichts mit Twitter, aber es gibt diverse 3rd Party Bots, die meinen RSS-Feed auf Twitter weiterverbreiten. Gegen meinen Willen übrigens. Ich finde die Idee furchtbar, dass Leute möglicherweise durch die Präsenz meiner Inhalte auf Schweine-Plattformen wie Twitter oder Facebook verbleiben. Mir wäre es viel lieber, wenn alle Leute, die meine Texte auf Twitter oder Facebook lesen, ihre Accounts dort zumachen und sich einen RSS-Reader installieren oder das Blog im Browser lesen würden.

Anyway, zurück zur Twitter-Graphen-Analyse. Stellt sich raus, dass die Bots, die meine (identischen!) Inhalte verbreiten, bei der Graphenanalyse natürlich an verschiedenen Stellen im Graphen auftauchen. Und alleine damit ist gezeigt, dass die Aussage von solchen Analysen Null ist. Der Typ, der da mit seinem Java-Tool, das jemand anderes geschrieben hat, und den Graphen-Daten, die er von jemand anderem hat, auf "Mach mal Analyse, Alter!" geklickt hat, hat sich dann mit fadenscheinigen "ja die Ausgabe muss man natürlich interpretieren!1!!"-"Argumenten" rauszureden versucht, aber das zieht offensichtlich überhaupt gar nicht, denn wir kamen ja zu ihm über die Interpretation, nicht über die Daten. Und die Interpretation war: Emma wird von Nazis gelesen!1!!

Was ja sogar sein kann. Wer weiß. Wundern würde es mich nicht.

0
sfy39587p00