KI-Update kompakt: NXAI, Zeitzeugen, OpenAIs Suchmaschine, KI im Wahlkampf

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 3 Min.
Von
  • The Decoder
Inhaltsverzeichnis

Forscher von NXAI haben ein Paper zum Aufbau eines neuen KI-Modells namens "Extended Long Short-Term Memory" (xLSTM) veröffentlicht. Dieses Modell soll die Leistungsfähigkeit und Effizienz aktueller Großer Sprachmodelle übertreffen. Federführend beteiligt ist der renommierte KI-Pionier Sepp Hochreiter.

xLSTM baut auf der seit den 1990er Jahren existierenden LSTM-Architektur auf. Die Forscher haben diese Architektur nun durch eine Skalierung auf Milliarden Parameter und eine Anpassung der Speicherstruktur weiterentwickelt. Dadurch vereint xLSTM Vorteile von LSTM und der derzeit dominierenden Transformer-Architektur.

Das Forscherteam sieht in xLSTM das Potenzial, zum leistungsstärksten großen Sprachmodell weltweit zu avancieren und weitreichende Auswirkungen auf verschiedene Bereiche des Deep Learning zu haben. Die Veröffentlichung des lange erwarteten Papers stößt auf großes Interesse in der Fachwelt. Ob sich die hohen Erwartungen erfüllen, bleibt abzuwarten.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Das OMR Festival in Hamburg, eine Hochglanz-Veranstaltung für digitales Marketing und Technologie, zog Zehntausende Besucher an. Im Zentrum standen Werbung, Sales und KI. Highlight für viele war der Auftritt von Influencerin Kim Kardashian, die sich für Regulierungen und Grenzen bei KI aussprach und Parallelen zum Umgang mit Social Media zog.

KI-Pionier Jürgen Schmidhuber und Jonas Andrulis von Aleph Alpha diskutierten den KI-Hype. Beide sehen eine Transformation durch KI, nutzen Chatbots wie ChatGPT aber kaum. Andrulis erwartet eine Revolution der Büroarbeit, wobei kreative Prozesse erhalten bleiben.

Scott Galloway prognostizierte, dass Google sich dank Daten, Finanzen und jahrelanger Forschung wieder an die KI-Spitze setzen wird, während er OpenAI als Division von Microsoft betrachtet.

Eine Künstliche Intelligenz ermöglicht es Interessierten, eigene Fragen an drei Holocaust-Überlebende zu stellen. Das Projekt "Lernen mit digitalen Zeugnissen" (LediZ) hat dafür Interviews mit Abba Noar, Eva Umlauf und Zilli Schmidt aufgezeichnet und aufbereitet.

Die Zeitzeugen beantworteten bis zu 1000 Fragen aus ihrem Leben vor, während und nach dem Holocaust. Mithilfe eines Sprachverarbeitungssystems gleicht die KI Nutzerfragen mit den aufgezeichneten Antworten ab und spielt die passende Videosequenz aus.

Die Interviews sind als 3D-Projektion in Lebensgröße in 3D-Brillen verfügbar.

Das von der LMU München geleitete Projekt soll die Erlebnisse der Zeitzeugen persönlicher vermitteln als herkömmliche Videos. Eine englische Version der Interviews mit Abba Noar erweitert nun die Zielgruppe.

Das Forschungsteam von Temporal Games hat ein Plugin für die Unreal Engine 5 vorgestellt. Es ermöglicht das //the-decoder.de/gaussian-splatting-ermoeglicht-echtzeit-streaming-volumetrischer-videos-in-ue5/:Streaming volumetrischer Videos in Echtzeit. Durch die Verwendung des sogenannten animierten "Gaussian Splatting" können reale Ereignisse oder Performances als dreidimensionale Projektionen in hoher Qualität dargestellt werden. Die in den 90ern entwickelte Gaussian-Splatting-Technik hat in den letzten zwei Jahren dank der KI-Fortschritte einen zweiten Frühling erlebt und wird seitdem stetig weiterentwickelt.

Die größte Herausforderung bei dieser Technologie ist die enorme Datenmenge, die für die Darstellung der Animationen benötigt wird. Dem Team von Temporal Games gelang es jedoch, die Datengröße um das 15-fache zu reduzieren. Ein kürzlich veröffentlichtes Video zeigt zudem, wie die integrierten Aufnahmen dynamisch in Echtzeit beleuchtet werden.

Die Forschenden arbeiten derzeit an einer Client-Server-Lösung für das Streaming mit der Technologie. Ziel ist es, die Technologie für den Einsatz in Spielen und auf Webplattformen verfügbar zu machen und so neue Möglichkeiten für immersive Erlebnisse zu schaffen.

Am 14. Mai beginnt Googles große KI-Entwicklermesse I/O. Schon vorher könnte OpenAI ein eigenes Suchprodukt auf den Markt bringen, um dem großen KI-Rivalen ein Schnippchen zu schlagen.

Mittlerweile bestätigt auch Bloomberg OpenAIs Web-Produkt, das wohl ähnlich Perplexity funktionieren wird und Webquellen zitieren kann. Es soll Fragen auch mit Bildern beantworten können, wenn diese relevant sind. Laut dem OpenAI-Leaker Jimmy Apples findet das Event zur Vorstellung der neuen Suche am kommenden Montag statt.

Angetrieben werden könnte die Suchmaschine von GPT-4-Lite und tatsächlich sind auf der Chatbot-Vergleichsplattform Chatbot-Arena von LMSYS neue Chatbots aufgetaucht, bei denen mittlerweile klar ist, dass sie mit OpenAI verbunden sind. Warum? Sie heißen "Im-a-good-gpt2-chatbot" und "Im-also-a-good-gpt2-chatbot". Der Name ist ein direktes Zitat eines Tweets von OpenAI-CEO Sam Altman vom 5. Mai. Laut ersten Nutzern soll eines der Modelle einen jüngeren Knowledge-Cut-off haben, also mit aktuelleren Trainingsdaten gefüttert worden sein.

OpenAI-COO Brad Lightcap schürt derweil die Erwartungen an den GPT-4-Nachfolger GPT-5. Auf die Frage, was man von OpenAI in den nächsten zwölf Monaten erwarten könne, bezeichnete er die heutigen Systeme als "lächerlich schlecht". Zukünftige Modelle sollten in der Lage sein, komplexe "Jobs" zu erledigen und wie ein Teamkollege mit einem zusammenzuarbeiten. Es werde auch eine Entwicklung hin zu verbalen Schnittstellen und darüber hinaus zur Multimodalität geben. "Wir kratzen nur an der Oberfläche der Möglichkeiten dieser Systeme", so Lightcap.

Wohl auch mit Blick auf die eigene Suchmaschine hat OpenAI angekündigt, bis 2025 ein Tool namens „Media Manager“ zu entwickeln. Es soll Inhaltseigentümern die Kontrolle darüber geben, wie ihre Werke für KI-Forschung und -Training verwendet werden dürfen. Die bisher eingeführten robots.txt-Befehle zum Ausschluss von OpenAI-Crawlern reichen laut dem Unternehmen nicht aus. Der Media Manager soll selbst auf Machine Learning setzen, um Inhalte, die Eigentümer vom KI-Training ausschließen wollen, auch dort zu identifizieren, wo sie in anderer Form etwa in Videos oder Podcasts zitiert werden.

Allerdings adressiert OpenAI nicht das Kernproblem: Es fehlt ein Konzept für eine faire Verteilung der wirtschaftlichen Vorteile unter den Content-Erstellern. Durch exklusive Partnerschaften mit großen Verlagen wie Axel Springer entscheidet letztlich OpenAI, wer von dem neuen Ökosystem profitieren kann.

In Indien sorgt der Einsatz von KI-generierten Wahlkampfvideos für Aufsehen. Verstorbene Politiker sprechen darin Wahlempfehlungen für ihre Nachkommen aus. Ein Beispiel zeigt einen vor Jahren verstorbenen Vater, der in einem Video für die Wahl seines Sohnes wirbt. Auch ein 2018 verstorbener einflussreicher Politiker trat in KI-generierten Videos auf und lobte seinen Sohn, den aktuellen Regierungschef eines Bundesstaates.

Die indische Wahlkommission hat Parteien nun vor der Verbreitung von Desinformationen durch Deepfakes gewarnt. Bei Meldung müssen entsprechende Inhalte binnen drei Stunden gelöscht werden. Der Einsatz von KI-Werkzeugen ist jedoch nicht grundsätzlich untersagt. Neben den Videos kursieren auch KI-generierte Stimmen von Wahlkämpfenden, die in scheinbar natürlichen Telefonaten um Stimmen werben.

Auch Bollywood-Stars waren bereits Opfer von Deepfakes. In gefälschten Videos rufen sie angeblich zur Abwahl des Premierministers Narendra Modi auf.

Red Hat stellt auf seiner jährlichen Hauskonferenz, dem Red Hat Summit, neue KI-Funktionen für die Produkte OpenShift und Ansible vor. OpenShift AI ermöglicht nun die Bereitstellung von KI-Modellen im Edge-Computing mithilfe einzelner Nodes und unterstützt Modell-Server im Verbund sowie Kserve. Zur beschleunigten Datenverarbeitung kommt die Ray-Technik zum Einsatz, während KubeRay und CloudFlare die Verwaltung vereinfachen.

Durch Partnerschaften mit Nvidia und Intel integriert Red Hat deren KI-Technologien in OpenShift. Auch mit AMD arbeitet das Unternehmen zusammen. Die KI-Plattform Lightspeed wird sowohl in OpenShift als auch in Red Hat Enterprise Linux eingebunden, um Administratoren bei Skalierungsaufgaben und Sicherheits-Updates zu unterstützen.

Für Ansible bietet Red Hat mit "Policy as Code" eine KI-gestützte Lösung für die Automatisierung komplexer Regulierungen und Konformitätsanforderungen. Zudem veröffentlicht Red Hat InstructLab zur Verbesserung von großen Sprachmodellen mithilfe der LAB-Technik von IBM.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

(igr)