OpenAI hat mit Figur einen humanoiden Roboter am Start, der Objekte erkennt, Aufgaben erledigt und das alles auch erklären kann. Es dauert zwar einen Moment, bis die KI ihre Antworten berechnet, aber es ist ein Vorgeschmack auf die Zukunft. Die nächsten Jahre werden wild.
(Direktlink, via The Awesomer)
Erinnert mich gerade an den alten Kraftwerk-Song “Wir sind die Roboter” und lässt mich nachdenken ob sie damit volkommen recht hatt(b)en. Beweist das vielleicht das unsere eigene “BioWare” grundsätzlich nach dem gleichen Schema bei der Verarbeitung von Informationen funktioniert? Wir können demnächst große Teile davon in Hard- und Softare giessen und dann unterscheiden uns nur noch unsere Gefühle von den Maschinen … Obwohl, gibt sogar jetzt schon genug Psychopaten unter den Menschen, bei denen die Gefühlsebene in der BioWare nicht (mehr) (vernünftig) funktioniert.
Aufregend spannend und angstmachend gruselig zugleich.
Wenn in der Sprachausgabe des Roboters Füllwörter wie “erm”, “um” oder “äh” auftauchen, ist doch was faul an der Sache. Darüber, dass man sich bei der Entwicklung der KI Sprachausgabe bereits darauf konzentriert „Speech disfluency“ mit in den Text einfließen zu lassen, ist nirgendwo etwas zu lesen. Nur darüber, dass noch fast jede KI Schwierigkeiten damit hat, Verzögerungslaute in einem, von einem Menschen gesprochenen Text, sauber zu erkennen.
Daher denke ich, dass der „Robotertext“ von einem Menschen eingesprochen wurde, und wenn sie die Sprachausgabe simulieren, dann womöglich auch die, von der KI berechneten Reaktionen und Bewegungsabläufe, die auch programmiert worden sein können.
Ich halte das Video eher für Werbung, denn für einen Belegt für ihren aktuellen Entwicklungsstand.
Dass „wir“ allerdings in nicht all zu ferner Zukunft an diesen Punkt gelangen werden, halte ich ebenso für garantiert.