| 21:30 Uhr | 2 Kommentare
Nachdem OpenAI CEO Sam Altman und Apples ehemaliger Design-Chef Jony Ive ein geheimnisvolles neues Gerät angekündigt haben, überschlägt sich die Gerüchteküche. Nicht zuletzt, da sich Altman und Ive nur sehr vage bezüglich des neuen Produkts geäußert haben, gibt es viele Spekulationen, die nun der Analyst Ming-Chi Kuo mit einigen Insider-Details konkretisieren kann.

Der iPod Shuffle der 4. Generation – Fotocredit: Apple
Ein iPod Shuffle als Halskette
Wie wir euch bereits berichtet haben, will OpenAI mit der Übernahme von Ives KI-Startup io in das Hardware-Geschäft starten. Das erste Produkt soll ein revolutionäres KI-Gerät werden.
Das Wall Street Journal schrieb bereits, dass dieses Gerät kompakt genug sein wird, um in eine Hosentasche zu passen. Das Produkt soll als „drittes Gerät des Nutzers“ fungieren. Neben dem iPhone und dem MacBook Pro hieß es in dem Bericht.
In einem Social-Media-Posting schreibt Kuo nun, dass das Gerät „etwas größer“ sein wird als der eingestellte Humane AI Pin. Es soll „so kompakt und elegant wie ein iPod Shuffle“ aussehen. Im Laufe der Jahre entwickelte sich der Shuffle von einem schlanken Rechteck zu einem kompakten Quadrat, wobei immer die Einfachheit und Eleganz im Vordergrund standen. Es überrascht nicht, dass auch das neue Gerät von OpenAI ähnlich elegant werden soll. Immerhin kümmert sich Jony Ives Designkollektiv LoveFrom um das Äußere, das zu einem großen Teil aus ehemaligen Apple-Designern besteht.
Wie der Shuffle soll auch das KI-Gerät kein Display haben. Stattdessen wird es sich drahtlos mit einem Smartphone oder Computer verbinden. Laut Kuo kann es um den Hals getragen werden und sich durch sein halskettenähnliches Design vom Clip-on-Konzept des AI Pins unterscheiden.
Das Gerät verfügt über Mikrofone für die Sprachsteuerung, sodass die Benutzer Befehle auf natürliche Weise sprechen können. Außerdem wird es über Kameras verfügen, die die Umgebung des Nutzers beobachten und analysieren können. Die Kombination aus Audio- und visuellem Input deutet auf einen kontextbewussten Assistenten hin, der seine Umgebung in Echtzeit verstehen und darauf reagieren kann.
Das Gerät hat bereits das Prototypenstadium erreicht und soll laut Kuo im Jahr 2027 in die Massenproduktion gehen. Das Wall Street Journal berichtet hingegen von einem Marktstart Ende 2026. Da die Entwicklung noch einige Zeit in Anspruch nehmen wird, können sich das Design und die Spezifikationen noch ändern.