Meta-KI sorgt für Wirbel: Llama 4 schlägt ALLE – aber Manipulationsverdacht

Die stärkste AI-Community und -Lernplattform Deutschlands

Hey! Willkommen zurück zu deinem wöchentlichen AI-Update! Dein Newsletter für die KI-Revolution - immer up-to-date und einen Schritt voraus!

Heute habe ich für dich:

  • Die wichtigsten News der Woche 🔥

  • Erkenntnis der Woche: Täuschend echt – und erschreckend undurchschaubar 🤐

  • 5 Nützliche AI-Tools 🤖

  • AI-Tutorial der Woche: ISo verwandelst du Texte in ansprechende Videos 🎬


🚨 Early-Bird Reminder: 19.09.2025. Live in Berlin. Wer zögert, verliert!

Die Neulandpro – Connect 2025 ist nicht irgendein weiteres x-beliebiges KI-Event. Es ist dein Shortcut zu allem, was du über Künstliche Intelligenz für deinen Businesserfolg wissen musst:

👉 KI-Update an einem einzigen Tag
Hol dir die neuesten AI-Trends, echte Use Cases und Insider-Wissen von den Tech-Größen der Szene direkt auf die Bühne – klar, verständlich, direkt anwendbar für dein Business.
👉 Hands-on statt Hype
Keine Buzzwords. Keine Theorie. Du erlebst, wie KI dein Unternehmen sofort an die Spitze deiner Branche bringt – live in unseren Workshops.
👉 Connections als Erfolgsbooster für dein Business
Verpass nicht die Chance, mit denen zu connecten, die mit KI nicht nur Trends setzen, sondern Märkte bewegen.
👉 Early-Bird – Spare dir 150 €
Mit deinem Early-Bird-Ticket sicherst du dir deinen Platz auf DEM KI-Event des Jahres 2025 und das zum besten Deal – nur noch für kurze Zeit.

💥 KI verändert alles. 💥

Die Frage ist: Willst du nur zuschauen oder Teil des Movements sein?

Wer heute zögert, zahlt morgen drauf. Early-Bird sichern – jetzt oder nie. 🚀


🔥 AI-NEWS

Meta stellt Llama-4-Modelle vor – doch Zweifel an Benchmarks werfen Fragen auf

Meta hat die ersten beiden Modelle der Llama-4-Serie vorgestellt: Scout und Maverick. Beide sind multimodal und nutzen eine Mixture-of-Experts-Architektur, bei der nur ein Teil der Parameter pro Anfrage aktiviert wird – was die Effizienz deutlich steigert. Llama 4 Maverick verfügt über 400 Milliarden Parameter, von denen nur 17 Milliarden aktiv sind, verteilt auf 128 Experten. Llama 4 Scout nutzt 109 Milliarden Parameter, mit ebenfalls 17 Milliarden aktiven Parametern und 16 Experten. Besonders beeindruckend: das Kontextfenster von 10 Millionen Tokens bei Scout – das entspricht rund 5 Millionen Wörtern.

Beide Modelle wurden mit Hilfe von Llama 4 Behemoth entwickelt, einem noch unveröffentlichten Modell mit 288 Milliarden aktiven Parametern, 16 Experten und insgesamt 2 Billionen Parametern. Behemoth diente als Lehrermodell für Scout und Maverick und soll laut Meta in mathematischen und wissenschaftlichen Benchmarks sogar GPT-4.5, Claude Sonnet 3.7 und Gemini 2.0 Pro übertreffen.

Doch genau an dieser Stelle wird es kritisch: Laut einem Bericht von The Verge nutzte Meta für seine Benchmark-Tests offenbar eine intern optimierte Version von Maverick, die nicht identisch mit der öffentlich zugänglichen Version ist. Die veröffentlichten Ergebnisse könnten dadurch besser aussehen als das, was Nutzer tatsächlich erhalten – was in der KI-Community zu Kritik und Zweifeln an der Vergleichbarkeit geführt hat.

Meta hat die Vorwürfe zurückgewiesen. Ahmad Al-Dahle, VP für Generative AI bei Meta, erklärte gegenüber TechCrunch, dass das Modell nicht absichtlich auf Benchmark-Daten trainiert worden sei. Die Diskrepanz zwischen den Benchmarks und der öffentlichen Version sei auf „Implementierungsprobleme bei der schnellen Veröffentlichung“ zurückzuführen.

Scout und Maverick sind ab sofort auf Llama.com und auf Plattformen wie Hugging Face verfügbar – in Europa allerdings derzeit noch nicht zugänglich. Behemoth befindet sich weiterhin in Entwicklung.

Gerüchte: OpenAI arbeitet an Smartphone ohne Bildschirm

OpenAI überrascht diese Woche mit zwei News: Das lang erwartete GPT-5 wird weiter verschoben, stattdessen kommt das o3-Modell “in wenigen Wochen” auf den Markt. Laut CEO Sam Altman soll OpenAI GPT-5 “deutlich besser machen können, als wir ursprünglich dachten”. Darum also die Zwischenlösung.

Das ist aber nicht alles: Laut Gerüchten ist der KI-Riese daran interessiert, das AI-Device-Startup io Products von Apple-Designlegende Jony Ive zu übernehmen. Gemeinsam soll ein „screenless phone“ entwickelt werden.

Google bringt Gemini Live​ auf erste Geräte

Google hat die Funktion Gemini Live für Android-Nutzer eingeführt, die es ermöglicht, die Smartphone-Kamera und Bildschirmfreigabe für KI-gestützte Interaktionen zu nutzen. Die Technologie, ursprünglich als "Project Astra" auf der Google I/O vorgestellt, erlaubt es, in Echtzeit mit der KI über das zu sprechen, was man sieht. ​

Mit Gemini Live können User beispielsweise die Kamera auf Objekte richten oder ihren Bildschirm teilen, um Fragen zu den dargestellten Inhalten zu stellen. Die KI bietet daraufhin kontextbezogene Antworten und Unterstützung. Diese Funktion ist in 45 Sprachen verfügbar.

Der Rollout von Gemini Live begann im März und wird schrittweise für weitere Android-Geräte ausgeweitet. Aktuell ist die Funktion für Nutzer von Pixel 9 und Samsung Galaxy S25 sowohl mit einem kostenlosen Zugang als auch mit einem Advanced-Konto bei Gemini verfügbar.

DeepMind legt Sicherheitsplan für AGI vor

Google DeepMind hat ein 145-seitiges Papier veröffentlicht, das erstmals einen technischen Sicherheitsrahmen für Allgemeine Künstliche Intelligenz (AGI) vorstellt. Ziel des Dokuments: Risiken wie missbräuchliche Nutzung, Fehlausrichtung von Zielen oder trügerische Absichten frühzeitig erkennen – und eindämmen.

Im Papier prophezeit Google DeepMind, dass AGI bereits 2030 Realität sein könnte. Darum fordern sie unter anderem strengere Zugangskontrollen, Sicherheitsbewertungen sowie klar definierte Eskalationsprozesse und grenzt sich damit deutlich von Konkurrenten wie OpenAI oder Anthropic ab. Dass DeepMind damit einen Nerv trifft, siehst du weiter unten in der Erkenntnis der Woche.

Amazon veröffentlicht vier neue AI-Tools

Amazon macht ernst mit KI – und zwar auf allen Ebenen. Innerhalb weniger Tage präsentiert der Konzern vier neue Features, die im Alltag nutzbar sind:

  • Kindle Recaps: Diese Funktion bietet Zusammenfassungen von Buchreihen, um Lesern den Wiedereinstieg in eine Reihe zu erleichtern. Die Zusammenfassungen werden mithilfe von Künstlicher Intelligenz erstellt und sind derzeit für Tausende von englischsprachigen Kindle-Büchern in den USA verfügbar.

  • Nova Reel 1.1: Das aktualisierte KI-Videomodell ermöglicht die Erstellung von Videos mit einer Länge von bis zu zwei Minuten.

  • Nova Sonic: Das Sprachmodell ermöglicht natürlichere und nuanciertere Sprachinteraktionen, indem es Tonfall, Betonung und Sprechgeschwindigkeit erkennt und darauf reagiert.

  • Buy for Me-Funktion: Diese neue Funktion in der Amazon-App ermöglicht es, Produkte von Drittanbieter-Websites direkt über die Amazon-App zu erwerben, wobei die KI den Kaufprozess im Namen des Users abwickelt.

Midjourney ist zurück: Modell V7 hat Fokus auf Personalisierung

Nach langer Wartezeit launcht Midjourney sein neues KI-Modell V7. Das hält einige Updates bereit: User bewerten zu Beginn rund 200 Bilder, um Midjourney einen Einblick in den persönlichen Geschmack zu liefern. Die generierten Werke sollen dadurch besser zum eigenen Stil passen. 

Neben einer komplett neuen Architektur und besseren Ergebnissen ist vor allem der neue Draft-Modus erwähnenswert: Der Entwurfsmodus soll dabei helfen, bis zu zehnmal schneller verschiedene Varianten eines Bildes zu erstellen. Das Modell ist noch nicht fertig und Midjourney hat angekündigt, noch eine Reihe von Funktionen innerhalb der nächsten 60 Tage nachzuliefern. 

Parallel steckt Midjourney aktuell mitten in mehreren Rechtsstreitigkeiten, da Künstler dem Unternehmen vorwerfen, KI-Modelle ohne Zustimmung mit ihren Werken trainiert zu haben.

ElevenLabs MCP bringt innovative Voice-Features für Entwickler

ElevenLabs hat mit seinem Model Context Protocol (MCP) ein neues Tool vorgestellt, das Sprach- und Audio-APIs nahtlos in Anwendungen integriert. Highlights wie realistische Text-to-Speech-Technologie, die sogar das Klonen spezifischer Stimmen ermöglicht, sowie automatische Audiotranskription, eröffnen neue Möglichkeiten. MCP lässt sich einfach mit KI-Clients wie Claude Desktop und Cursor verbinden. Das Ganze gibt es kostenlos mit 10.000 Credits pro Monat.

Microsoft Copilot bekommt Updates und wird persönlicher

Microsoft hat Copilot ein großes Update verpasst: Der AI-Assistent kann sich jetzt Vorlieben und gespeicherte Konversationen merken, um künftig maßgeschneiderte Unterstützung zu bieten. Neu sind auch “Actions”: Copilot übernimmt direkt Aufgaben im Web, wie etwa Tickets buchen oder einen Tisch im Restaurant reservieren. Mit “Copilot Vision” erkennt die KI nun sogar Objekte in Echtzeit über die Smartphone-Kamera. Eine neue Windows-App hilft beim Analysieren von Bildschirminhalten, und die “Pages”-Funktion organisiert Daten noch besser. Ob diese Features Copilot einen Vorsprung gegenüber Konkurrenten wie Google und OpenAI verschaffen, bleibt abzuwarten.


🧠 ERKENNTNIS DER WOCHE

Täuschend echt – und erschreckend undurchschaubar

Fünf Minuten Plauderei. Ein bisschen Smalltalk, ein Hauch Empathie. Und schon sind wir sicher: Das ist ein Mensch. Nur war es keiner. GPT-4.5, das neueste Sprachmodell von OpenAI, hat in einer US-Studie als erste KI in der Geschichte den Turing-Test bestanden. 

Der Turing-Test, benannt nach dem Mathematiker Alan Turing, prüft, ob eine Maschine in der Lage ist, menschliches Verhalten so nachzuahmen, dass ein menschlicher Prüfer den Unterschied nicht erkennt. Und genau das ist jetzt passiert. GPT-4.5 kann so tun, als hätte es Sorgen, Humor, Persönlichkeit. Es ahmt uns nach. Präzise, glaubwürdig, vertraut.

In der US-Studie führten die Teilnehmenden jeweils zwei schriftliche Unterhaltungen. Eine mit einem Menschen, eine mit einer KI. Wer wer war, wussten sie nicht. Anschließend sollten sie entscheiden, welches Gespräch mit einem Menschen geführt wurde. Kam GPT-4.5 ohne besonderen Prompt zum Einsatz, lag die Trefferquote bei 36 Prozent. Doch sobald das Modell mit einer klaren Persona ausgestattet wurde – in diesem Fall eine junge Person, die introvertiert ist, sich mit der Internetkultur auskennt und Umgangssprache verwendet – überzeugte es deutlich mehr. In dieser Rolle hielt die Mehrheit der Testpersonen die KI für einen echten Menschen. Ganze 73 Prozent ließen sich täuschen.

Das allein ist schon eine große Sache. Gleichzeitig tritt ein viel entscheidenderes Problem zutage: Wir verstehen viel weniger, wie KI zu ihren Antworten gelangt, als gedacht. Eine aktuelle Studie von Anthropic zeigt, dass selbst fortschrittliche Reasoning-Sprachmodelle wie Claude 3.7 Sonnet und DeepSeek R1 ihre tatsächlichen Gedankengänge zum großen Teil verschleiern. Obwohl sie scheinbar Schritt für Schritt ihre Schlussfolgerungen erklären, geben sie oft nicht preis, welche Informationen oder Hinweise sie bei der Entscheidungsfindung tatsächlich genutzt haben. Besonders besorgniserregend ist, dass diese Verschleierung bei komplexeren Aufgaben noch ausgeprägter ist. Je komplexer die Aufgabe, desto größer der Unterschied zwischen dem, was sie tun, und dem, was sie uns erzählen.

Das ist die eigentliche Big News diese Woche und das eigentliche Risiko. Die entscheidende Frage ist deshalb nicht mehr, wie menschlich KI wirkt, sondern wie lange wir noch nachvollziehen können, was sie eigentlich tut. Und ob wir gerade still und leise die Kontrolle verlieren.

Was gegen die aufsteigende Unsicherheit hilft? Wissen! Wer sich mit den aktuellen Entwicklungen in der KI auskennt, bleibt souverän, auch in unübersichtlichen Zeiten. Komm daher unbedingt in unser kostenloses Webinar am 27. April und nutze deine Chance, dein AI-Wissen zu erweitern. Melde dich jetzt an!


🤖 AI-TOOLS

  • MoCha: Erstelle Videos mit sprechenden Charakteren aus Sprache und Text (Link).

  • Claude for Education: KI für höhere Bildung mit neuem Learning-Mode für Studierende (Link).

  • Video Re-style: Tool, mit dem du den Stil eines Videos verändern kannst, ohne Bewegungskonsistenz zu verlieren (Link).

  • DreamActor-M1: Erstelle realistische menschliche Animationen aus einem einzigen Bild (Link).

  • Humantic AI: KI-Tool, das dir mehr Einblicke in Kundenverhalten gibt, um mehr Abschlüsse zu erzielen (Link).


🧑‍🏫 AI-TUTORIAL DER WOCHE

So verwandelst du Texte in ansprechende Videos

Hast du schon mal daran gedacht, deine Texte auch in Videoform zu teilen? Ob Blogartikel, Newsletter oder LinkedIn-Posts: Mit Lumen5 kannst du deine Inhalte schnell und einfach in ansprechende Videos verwandeln. 

So funktionierts:

  1. Registrieren: Melde dich auf lumen5.com an. Du kannst mit einem kostenlosen Account starten oder eine Testversion ausprobieren.

  2. Design wählen und Text einfügen: Wähle ein Design und ein Format aus. Lade dann deinen Blogartikel, Newsletter oder ein kurzes Skript in den Editor. 

  3. Passe das Skript an: Aus deinem Link erstellt Lumen5 ein Videoskript. Das kannst du nun ggf. noch anpassen. 

  4. Lass die KI arbeiten: Lumen5 analysiert deinen Text und erstellt automatisch passende Visuals, Musik und Animationen. 

  5. Feinschliff: Verfeinere dein Video nach deinem Geschmack. Passe Farben, Branding oder das Voiceover an oder nimm deine eigene Tonspur auf.

  6. Exportieren und teilen: Dein fertiges Video ist in wenigen Minuten bereit, um beispielsweise auf Social Media geteilt zu werden.

Viel Spaß beim Ausprobieren!


Das war’s für dieses Woche. Vielen Dank fürs Lesen!

Dir hat der Newsletter gefallen? Dann freue ich mich, wenn du ihn an deine Freunde weiterleitest. 🤗 (Anmeldelink).

Hier kannst du gerne meine vorherigen Newsletter durchstöbern.

Bis nächste Woche!

Henry


PS: Wissen, Kontakte, Vorsprung – am 19.09.2025 live in Berlin.
Neulandpro – Connect 2025: Bist du dabei? 🚀


Zurück
Zurück

OpenAI plant eigenes Soziales Netzwerk! Was steckt dahinter?

Weiter
Weiter

Wettlauf um KI-Agenten: Amazon schickt Nova Act ins Rennen