Meta-CEO Zuckerberg stellt sich eine neue Ära der AR-Brillen vor
Mark Zuckerberg, CEO von Meta Platforms, enthüllte während einer Diskussion mit Jensen Huang, CEO von Nvidia, auf der SIGGRAPH 2024-Konferenz in Denver am 29.07.2024 seine Vision einer Augmented-Reality-Brille, die eine Menge Technologie in einen dünnen Designer-Rahmen packen kann.
Er möchte schließlich eine Reihe von AR-Brillen zu verschiedenen Preisen anbieten, je nachdem, welche Aufgaben sie erfüllen können. Die Brillen werden mittels integrierter Assistenten über KI verfügen und eine breite Palette von Funktionen bieten, ohne dabei an Stil einzubüßen. "Die Ray-Bans, die wir hatten, waren nicht in der Lage, die ganze Technik unterzubringen", sagte Zuckerberg. "Wir kommen der Sache näher, es könnte noch zwei oder drei Jahre dauern. Wir wollen, dass sie gut aussehen."
Zuckerberg sprach auch über die Auswirkungen von KI auf die Meta-Produkte
"Wir werden den Meta-KI-Assistenten haben, aber wir wollen, dass unsere Kunden ihre eigenen Agenten erstellen können", sagte Zuckerberg. "Wir nennen es AI-Studio, eine Reihe von Tools, die es jedem Nutzer ermöglichen, eine KI-Version von sich selbst zu erstellen. Wir können nicht immer mit jedem interagieren, den wir täglich brauchen. Aber wir können einen Agenten erstellen, der auf uns selbst basiert und mit Menschen interagieren kann."
Er betonte auch, dass die Versionen Llama 3 und Llama 4 flüssiger sein werden und sich nicht mehr wie ein Chatbot anfühlen werden. Er fügte hinzu, dass Facebook und Instagram weitere KI-Funktionen implementieren werden, wenn sich die Technologie weiterentwickelt.
Die Bedeutung von Open Source für den Fortschritt der KI
Zuckerberg hob die Bedeutung von Open Source für die Weiterentwicklung von KI hervor. Meta hat sich schnell zu einem führenden Unternehmen im Bereich der KI entwickelt und setzt diese in allen Geschäftsbereichen ein - vor allem mit Meta AI, das bei Facebook, Instagram und WhatsApp zum Einsatz kommt - und treibt die Open-Source-KI in der gesamten Branche voran, zuletzt mit der Veröffentlichung von Llama 3.1. Das Open-Source-Modell bedeutet eine erhebliche Investition von Zeit und Schulungsressourcen. Die größte Version von Llama verfügt über 405 Milliarden Parameter und wurde auf über 16.000 NVIDIA H100 GPUs trainiert.
"Einer der Gründe für die Qualitätsverbesserung ist, dass man früher für jede Art von Inhalt ein anderes Modell hatte", erklärt Zuckerberg. "Wenn die Modelle größer und allgemeiner werden, wird das immer besser. Ich träume also davon, dass eines Tages ganz Facebook oder Instagram ein einziges KI-Modell ist, das all diese verschiedenen Inhaltstypen und Systeme vereint", fügte er hinzu.
Llama 3.1 sei ein Wendepunkt bei der Einführung von Open Source
Zuckerberg sieht in der Zusammenarbeit den Schlüssel zu weiteren Fortschritten. In einem in der vergangenen Woche veröffentlichten Blogbeitrag schrieb Zuckerberg, dass die Veröffentlichung von Llama 3.1 einen "Wendepunkt" bei der Einführung von Open Source in der KI darstellen wird. Diese Fortschritte versprechen mehr Werkzeuge zur Förderung des Engagements, zur Schaffung überzeugender und personalisierter Inhalte (wie digitale Avatare) und zum Aufbau virtueller Welten. Ganz allgemein verspricht die Weiterentwicklung der KI in einem breiten Ökosystem eine Steigerung der menschlichen Produktivität, indem beispielsweise jeder Mensch auf der Erde einen digitalen Assistenten erhält, der den Menschen ein reichhaltigeres Leben ermöglicht, mit dem sie schnell und reibungslos interagieren können.
Visionen für die Zukunft
Zuckerberg äußerte sich optimistisch über die Verbindung von KI mit der realen Welt durch Brillen, wobei er die Zusammenarbeit seines Unternehmens mit dem Brillenhersteller Luxotic erwähnte, die dazu beitragen können, Bildung, Unterhaltung und Arbeit zu verändern. Huang betonte, dass die Interaktion mit KI immer fließender wird und über textbasierte Interaktionen hinausgeht. "Die KI von heute ist eher rundenbasiert. Sie sagen etwas, und sie antwortet Ihnen", sagte Huang. In Zukunft könnte die KI mehrere Optionen in Erwägung ziehen oder einen Baum von Optionen erstellen und die Ergebnisse simulieren, was sie viel leistungsfähiger macht.