(S)TÜRMisches

KI – künstliche Intelligenz ist aus unserem täglichen Leben, genauso wie Smartphone & Co schon lange nicht mehr wegzudenken. Wer durchpflügt brummend Nachbars Garten und erspart dem Besitzer das lästige und geräuschintensive Rasenmähen? Der Mähroboter, der allerdings – Vorsicht ist geboten – alles kleinhäxelt, was ihm so in die Quere kommt... auch Spielzeuge und Kleintiere!! Im Haus ist der für viele vom herkömmlichen, zugegebenermaßen unhandlichen Staubsauger, dessen Schnur immer zu kurz und das Geschleppe die Treppen hoch und runter auf die Dauer rückenschädigend ist, der hilfreiche Saugroboter ein unersetzliches Familienmitglied geworden; ja manche betiteln ihn sogar liebevoll mit einem Vornamen. Gut vorstellbar, dass „Saugi“ oder „Staubi“ eines Tages auch schnell mal zwischendurch einen Café serviert oder die Waschmaschine befüllt, es sei denn die ist bis dahin nicht schon selbst in der Lage sich die von ihr vorsortierte Schmutzwäsche einzuverleiben. Er, sie.. Sind Roboter eigentlich geschlechtsneutral? Endlich ein neues Betätigungsfeld für die Gender-Beauftragten, wir dürfen gespannt sein.

Diese kleinen Helferlein sind jedoch vergleichsweise harmlose Randprodukte der KI, kritisch wird es da, wo Maschinen das Denken, Handeln und Verstehen übernehmen. Technologen jubelten, dass durch KI endlich Entscheidungen rational und damit effizient getroffen werden könnten, ohne dass ein Tagesbefinden, die emotionale Prägung oder die Wunschvorstellungen eines menschlichen Entscheiders eine Rolle spielen. Beispielsweise bei der Einschätzung der Zahlungsfähigkeit eines Menschen, bei der Auswahl von Angestellten oder sogar der Suche nach dem passenden Partner. „Algorithmen entscheiden ausschließlich auf Basis von Fakten, nicht auf Basis von Hautfarbe“ und „Mathematik und Algorithmen sind neutral und deshalb sind es auch alle algorithmischen Entscheidungen“, waren die Leitsätze. Klingt super, klappt aber eben nicht immer. Denn warum hat dann das automatische Beerbungssystem von Amazon systematisch Frauen benachteiligt? Da hat sich das System sozusagen selbst überlistet, da es mit Daten der vergangenen zehn Jahre gearbeitet hat und während dieser Zeit vor allem nur Männer eingestellt worden waren. Durchaus intelligent. Während man als benachteiligte Frau mit einem sexistischen Personalchef noch diskutieren könnte, ist dies mit KI eher schwierig.Laut Forschung ist es jedoch möglich selbstlernende Algorithmen so zu entwerfen, dass sie bestimmte Fairness-Kriterien sicherstellen und unerwünschte Diskriminierung verhindern. Aber was verstehen wir genau unter Fairness? Die TU-Berlin entwickelt mit der UPF-Barcelona eine Software für „Elasticsearch“, das faire Suchergebnisse garantieren wird. Elasticsearch ist ein Tool, das mittlerweile von nahezu allen Websites mit Suchfunktionen benutzt wird. Das lässt doch hoffen. Übrigens, so harmlos sind die kleinen Hausroboter wohl doch nicht. Kürzlich soll ein gehackter Staubsauger die Wohnung für einen später erfolgten Einbruch ausgekundschaftet haben. Hoffentlich kümmern sich die Forscher auch um den Missbrauch künstlicher Intelligenz, nicht auszudenken, was eine Horde enthemmter Mähroboter so anrichten könnte...

Aktuelle Meldungen der Polizeidirektion Hochtaunus



X