Article Image
Article Image

Diesen Newsletter kann man auch abonnieren

read

“Der Kunde, der starb, war ein Freund von Tesla und der weiteren EV-Community. Wir sprechen seiner Familie und Freunden unser tiefsten Beileid aus.” - Tesla, am 30. Juni 2016

Gestern Nacht wurde bekannt, dass es den ersten Todesfall mit einem Tesla-Autopiloten gab. Im Firmenblog heißt es, selbstfahrende Tesla-Autos hätten schon mehr als 130 Millionen Meilen ohne Todesfall zugebracht. Die Durchschnittszahl unter allen Vehikeln liegt bei 94 Millionen Meilen. Aber solche Statistiken sind natürlich für die Familie des Verstorbenen kein Trost. Die US-Sicherheitsbehörde für den Straßenverkehr NHTSA ermittelt schon gegen Tesla. Ob das Autopilot-Feature jetzt verboten wird, ist nicht klar. Wahrscheinlich nicht. Die Technik versagte anscheinend, weil der Sattelschlepper, der in den Unfall verwickelt war, eine weiße Plane hatte, die für die Tesla-KI ununterscheidbar zum Himmel war. Für Tesla war das Autopilot-Feature immer nur ein “Beta-Test”, die Nutzung geschah auf eigene Gefahr. Andere Autohersteller wie Cadillac haben auch einen Autopiloten in Entwicklung, die Technik aber noch zurück gehalten. Der Wired sagte der Cadillac-Sprecher noch im Januar: “Wir werden den Autopiloten weder zu einem bestimmten Zeitpunkt fertig haben müssen, noch werden wir einen Beta-Test mit unseren Kunden machen.”

Und damit willkommen zu einer wenig düsteren (und verspäteten) Ausgabe des Newsletters. Tesla wird sich jetzt verantworten müssen, aber auch andere sind schon längst dabei, der Bevölkerung künstliche Intelligenz schmackhaft zu machen.

Schmidteinander

Eric Schmidt, der Vorstandsvorsitzende von Alphabet, hat diese Woche zum Gegenschlag ausgeholt. Gemeinsam mit Sebastian Thrun, einem der führenden KI-Forscher überhaupt, hat Schmidt einen Kommentar für Forbes geschrieben. Denn inzwischen haben auch die letzten mitbekommen, dass KI ein Riesenthema ist. Und vor dem Unbekannten hat man erst mal Angst. Immer lauter wird die alte Terminator-Frage: Wann wird die Google KI zum menschenfeindlichen Skynet? Jetzt will auch noch das Weiße Haus wissen, was die Bevölkerung von Künstlicher Intelligenz hält und lädt zum Kommentieren ein. Höchste Zeit, aus dem Bean Bag aufzustehen, den Google-Smoothie auszutrinken und der Bevölkerung die Zukunft zu erklären.

“Genau wie die landwirtschaftliche Revolution uns davon frei gemacht hat, jeden Tag stundenlang Pflanzen zu ernten, könnte die KI-Revolution uns von niedrigen, repetitiven und geistlosen Tätigkeiten befreien.”

Na ja. Dass neue, effizientere Techniken uns ein Leben wie Gott in Frankreich bescheren, wird uns schon ewig versprochen. Wahr geworden ist davon nicht viel. Bis wir aber da sind, müssen wir erst mal die Probleme im Jetzt in den Griff kriegen. Zum Beispiel:

So viele weiße Männer

Ein kurzer Exkurs: Die gängige Vorstellung, die viele von selbstlernenden Algorithmen haben, ist: Man kippt vorne jede Menge Daten rein, der Computer macht irgendwelchen Zahlen-Hokuspokus und hinten kommt dann was Tolles bei rum. Das ist natürlich Quatsch. Denn die Daten, die vorne reingekippt werden, müssen erstens richtig ausgewählt sein und zweitens beschriftet sein. Und genau das führt zum sogenannten “White Guy Problem”, über das die New York Times diese Woche geschrieben hat. Wenn ein Algorithmus zum Beispiel schwarze Menschen als Gorillas identifziert oder denkt, Asiaten wären lediglich blinzelnde Weiße, dann ist das ein verdammt großes Problem. Das heißt nicht, dass der Algorithmus oder der Programmierer ein Rassist ist, sondern, dass wie so oft nicht-weiße Menschen nicht mitbedacht wurden. Und das kann man nur lösen, wenn man nicht nur White Guys einstellt. Margaret Mitchell von Microsoft sagt, sie arbeite in einem “Meer aus Typen”: “Unsere Einstellungspraxis hat einen riesigen Einfluss darauf, welchen Fragen wir nachgehen.”

KI-Ninjas

Wenn ihr in dieser Woche nur einen guten Text zu KI und Machine Learning lesen wollt: Voilà, hier ist er. Steven Levy hat sich ganz genau angesehen, wie Google seine Mitarbeiter auf die KI-Zukunft vorbereitet. Wirklich spannende Einblicke in das Raumschiff Google.

Wieherende Zentauren

Als vor 19 Jahren Deep Blue den Schach-Großmeister Garry Kasparow besiegt hat, sind alle komplett durchgedreht. Das Ende ist nah! Die Menschheit ist dem Untergang geweiht! Yadda yadda yadda.

Worüber niemand mehr geredet hat: Kasparow wurde durch sein Spiel gegen Deep Blue wesentlich besser im Schach. Der Computer hat ihn trainiert. Um noch mehr von der reinen Rechenpower Deep Blues zu profitieren, hat Kasparow in den Jahren nach seiner Niederlage eine Schach-Freestyle-Liga etabliert. Hier spielen menschliche Spieler MIT dem Computer, nicht gegen ihn. Diese Spieler nennen sich Zentauren und gehören heute zu den besten Spielern der Welt.

Warum ich das alles erzähle? Microsoft-Chef Satya Nadella sieht den Menschen der Zukunft als Zentauren. In einem langen Artikel für Slate stellt er dar, wie die Partnerschaft zwischen Mensch und Maschine aussehen könnte.
- KI muss dem Menschen dienen
- KI muss transparent sein
- KI soll effizient sein, ohne die Würde des Einzelnen zu verletzen
- KI muss unsere Daten schützen

Das liest sich alles wie die Asimovschen Robotergesetze, nur in geupdatet. Erst letzte Woche hatte Google ähnliche Sicherheitsrichtlinien aufgestellt. Einheitliche Richtlinien für alle würden uns hier sehr viel weiter bringen.

Kleinigkeiten

  • Ein ChatBot hat mehr als 160000 Strafzettel erfolgreich reklamiert. Durch einfache Fragen erschließt er selbstständig den besten Reklamationsgrund und generiert das Schreiben auch gleich mit. Ich warte darauf, dass das Konzept auch auf andere Bereiche übertragen wird: Selbstständiges Kündigen von Bahncards, Zeitschriftenabos und anderem Tant.

  • Es gibt einen echten WALL-E! Cozmo heißt der Roboter, er ist ein 10 Zentimeter großer Würfel mit Hebearm und Minibildschirm, mit dem man spielen kann. Und das für 180 Dollar. Vielleicht kann man den süßen Roboter ja auch mit ein bisschen gesundem Menschenverstand füttern. Denn daran arbeiten gerade Forscher der TU Graz: Ein Haushaltsroboter, der wirklich zu was gebrauchen ist.

The artificial intelligence system will automatically interact with video cameras, infrared and seismic sensors, radars and drones, observing any types of violations. In addition, the built-in artificial intelligence will be able to predict situations, producing ready-made proposals for the border protection.

Das klingt wahnsinnig gruselig, ist aber sehr realistisch. So lange ein Mensch die Daten auswertet und Entscheidungen trifft, sind wir noch in bekannten Gewässern. Schwierig wird es, wenn eine KI bewaffnet wird. Aber natürlich ist auch das ist eine Seite von KI: Sie könnte mal unseren Krebs heilen und eine andere KI ballert uns an der Grenze ab. Hier brauchen wir ebenfalls dringend Gesetze. Landminen haben wir immerhin auch verboten, warum nicht auch KIs mit Schießbefehl.

Das war’s für diese Woche. Ich freu mich wie immer über Feedback. Entweder gleich hier per Mail oder auf Twitter (@caltf4). Wenn euch der Newsletter gefallen hat, erzählt euren Freunden davon.

Bis nächste Woche!

Christian

PS: Dieser Newsletter hat jetzt eine eigene Webseite! Unter altf4.cool könnt ihr alle alten Folgen nachlesen.

Blog Logo

Christian Alt


Published

Image

Alt+F4

Ein Newsletter über Künstliche Intelligenz, Machine Learning, neuronale Netzwerke und die Zukunft des Computings.

Strg+Z