Revolutionäre KI steuert Computer wie ein Mensch
Hey! Willkommen zurück zu deinem wöchentlichen AI-Update! Dein Newsletter für die KI-Revolution - immer up-to-date und einen Schritt voraus!
Heute habe ich für dich:
Die wichtigsten News der Woche 🔥
Erkenntnis der Woche: KI-Musik erobert die Charts – und du kannst mitmachen 🎸
5 Nützliche AI-Tools 🤖
AI-Tutorial der Woche: Mindmaps mit AI erstellen 🧠
🔥 AI-NEWS
Anthropic setzt neue Maßstäbe: KI Claude bedient Computer wie ein Mensch
Anthropic hat mit der Veröffentlichung von Claude 3.5 Sonnet einen wichtigen Schritt in der KI-Entwicklung gemacht: Erstmals ist eine künstliche Intelligenz in der Lage, Computer direkt zu steuern. Claude kann den Cursor bewegen, auf Bildschirmelemente klicken und Texte über eine virtuelle Tastatur eingeben – ähnlich wie ein Mensch. Diese neue Funktion eröffnet ganz neue Möglichkeiten für die digitale Interaktion und könnte langfristig unseren Alltag maßgeblich verändern.
Erste Tests der neuen Funktionen zeigen jedoch noch Grenzen auf. Während Claude bei einfachen Aufgaben wie Klicken oder Eingaben überzeugen konnte, blieb die Erfolgsquote bei komplexeren Aufgaben wie Flugbuchungen unter 50 Prozent. Auch bei grundlegenden Interaktionen wie Scrollen oder Zoomen zeigten sich noch Schwächen. Dennoch sehen wir hier nicht weniger als den Beginn einer neuen Ära im Umgang mit Künstlicher Intelligenz.
Außerdem hat Anthropic das Large Language Model Haiku 3.5 vorgestellt, das ebenfalls mit seiner verbesserten Leistung beeindruckt.
OpenAI’s erweiterter Sprachmodus jetzt in Europa verfügbar
OpenAI hat den erweiterten Sprachmodus nun für europäische Nutzer freigeschaltet. Nach einer Verzögerung von einigen Monaten, bedingt durch die Anpassung an europäische KI-Vorschriften, ist die Funktion jetzt ohne VPN nutzbar. Derzeit ist der erweiterte Sprachmodus nur für Nutzer mit einem Plus- oder Team-Abo und nur auf mobilen Geräten verfügbar, eine Desktop-Version (Mac, Windows, Web) könnte jedoch zu einem späteren Zeitpunkt folgen.
Mögliche Anwendungsbereiche des Sprachmodus:
Sprachlern-Coach: Unterstützung beim Erlernen neuer Sprachen und der Aussprache
Universeller Übersetzer: Echtzeit-Übersetzungen in verschiedenen Sprachen
Brainstormingpartner: Unterstützung bei kreativen Prozessen und Ideensammlungen
Akzente: Übung und Verbesserung verschiedener Akzente
Rollenspiele: Simulation von Gesprächssituationen zur Vorbereitung auf unterschiedliche Szenarien.
NVIDIA überrascht mit bahnbrechendem KI-Modell
Entwickelt sich NVIDIA vom wichtigsten Chipentwickler der Welt auch noch zu einem führenden Anbieter generativer KI? Die neuesten Entwicklungen deuten darauf hin. NVIDIA hat unerwartet das KI-Modell Llama-3.1-Nemotron-70B-Instruct auf der Plattform HuggingFace veröffentlicht und damit für Aufsehen gesorgt. In ersten Tests schnitt das Modell besser ab als die führenden Systeme von OpenAI und Anthropic.
Mit 70 Milliarden Parametern verarbeitet es komplexe Anweisungen und dank der Verwendung von Reinforcement Learning from Human Feedback (RLHF) passt sich das Modell optimal an Nutzerpräferenzen an.
NVIDIA hat außerdem in Kooperation mit dem MIT und der Tsinghua-Universität ein neues Bildgenerierungsmodell namens Sana vorgestellt. Sana kann Bilder in der Größe 1024×1024 in nur 0,37 Sekunden erzeugen und übertrifft damit bestehende Modelle wie FLUX mit einer bis zu 100-fachen Geschwindigkeit. Sanas bahnbrechende Fähigkeiten basieren auf fortschrittlichen Datenkompressionsmethoden, effizienten Rechenprozessen und einer verbesserten Abstimmung zwischen Text und Bild.
Meta stellt neue KI-Modelle und -Werkzeuge vor
Meta’s Fundamental AI Research (FAIR) hat kürzlich mehrere neue KI-Modelle und -Werkzeuge vorgestellt. Besonders spannend aus unserer Sicht ist der Self-Taught Evaluator, ein innovatives KI-Tool, das in der Lage ist, die Genauigkeit anderer KI-Modelle ohne menschliches Eingreifen zu bewerten und zu verbessern. Das Modell nutzt eine Chain-of-Thought-Methode, um vor der Antwortfindung nachzudenken, und generiert verschiedene Ausgaben, die es dann selbst evaluiert. Laut Meta liefert der Evaluator beeindruckende Ergebnisse, die sogar über denen von Modellen liegen, die auf menschlich gekennzeichneten Daten basieren.
Außerdem spannend ist das offene, multimodale Sprachmodell Spirit LM, mit dem sich Texte und gesprochene Sprache kombinieren lassen. So kann es beispielsweise geschriebene Texte vorlesen, gesprochene Sprache verschriftlichen und gesprochene Äußerungen nach Inhalt klassifizieren. Besonders ist an Spirit LM auch, dass es Emotionen in Sprachausgaben vermitteln kann.
Das FAIR-Team stellte darüber hinaus viele weitere KI-Werkzeuge und Updates vor, die ihr euch hier anschauen könnt. Meta treibt die KI-Entwicklung mit wichtigen Releases voran, und der Vorteil geschlossener Modelle schwindet angesichts der starken Open-Source-Systeme zunehmend.
Meta arbeitet mit Blumhouse Productions zusammen
Erinnerst du dich an Metas neues Videotool VideoGen, das wir vor Kurzem im Newsletter vorgestellt haben? Meta arbeitet nun mit Blumhouse Productions zusammen, um das Modell von Filmemacherinnen und -machern testen zu lassen.
Blumhouse hat dafür Aneesh Chaganty, die Spurlock Sisters und Casey Affleck ausgewählt, um mit Metas Forschungsteam zu arbeiten und drei kurze KI-Filme zu produzieren. Der erste Film, i h8 ai, von Chaganty produziert, ist bereits veröffentlicht, während die anderen beiden Filme von Affleck und den Spurlock Sisters in Kürze folgen werden. Meta plant, die Tests fortzusetzen, bevor sie die Tools nächstes Jahr der Öffentlichkeit zugänglich machen werden.
Microsoft stellt autonome Copilot-Agenten vor
Microsoft hat neue Funktionen in Copilot und Dynamics 365 angekündigt. Nutzer können künftig aus zehn vorgefertigten Agenten wählen, u. a. aus den Bereichen Vertrieb, Service und Finanzen, und diese eigenständig Aufgaben erledigen lassen.
Zusätzlich ist Copilot Studio ab nächstem Monat zugänglich, mit dem Nutzer ihre eigenen autonomen Agenten erstellen können. Die Agenten basieren auf der OpenAI o1-Modellreihe.
Microsoft und OpenAI Partnerschaft in der Krise?
OpenAI und Microsoft wurden lange Zeit als Dreamteam betrachtet. Sam Altman, CEO von OpenAI, sprach sogar von einer „Bromance“ zwischen den beiden Unternehmen. Doch Berichten zufolge gibt es hinter den Kulissen zunehmend Spannungen.
Der Druck auf OpenAI wächst, da das Unternehmen mit einem geschätzten Verlust von 5 Milliarden Dollar kämpft. Zudem hat das Unternehmen kürzlich einen Deal mit Oracle abgeschlossen und versucht neue Investoren ins Boot zu holen, darunter NVIDIA, Apple und MGX. Microsoft wird vorsichtiger, was seine Abhängigkeit von OpenAI angeht. Das Unternehmen rekrutiert beispielsweise Talente von Inflection, einem direkten Konkurrenten von OpenAI, um die eigenen KI-Kompetenzen auszubauen.
OpenAI hat sich einen Experten aus dem Weißen Haus ins Team geholt. Dr. Ronnie Chatterji wurde als Chief Economist eingestellt, der die globalen ökonomischen Auswirkungen von KI analysieren und Strategien zur optimalen Nutzung dieser Technologien in der Arbeitswelt entwickeln soll. Chatterji war zuvor Chefökonom im US-Handelsministerium und stellvertretender Direktor des Nationalen Wirtschaftsrats im Weißen Haus.
Weitere Updates in der KI-Bild- und Video-Generierung
So viele spannende News passen kaum in unseren Newsletter! Darum bekommst du hier einen kurzen Überblick über aktuelle Updates in der KI-Bild und Video-Generierung.
Runway hat das neue Tool Act-One eingeführt, das Videos in Animationen verwandelt und einen einfachen Wechsel zwischen verschiedenen Stilrichtungen ermöglicht.
Canva hat mit Dream Lab ein Bild-Tool gelauncht, das Nutzern ermöglicht, Bilder in verschiedenen Stilen auf Knopfdruck zu erstellen.
Ideogram startet eine neue Canvas-Funktion, mit der Bilder erweitert und gefüllt werden können.
Google DeepMind hat mit Fluid ein starkes neues Text-zu-Bild-Modell vorgestellt.
Genmo hat das Open-Source-Modell Mochi1 veröffentlicht, das vergleichbar mit Runway ist und kostenlos genutzt werden kann, um Videos einfach und effizient zu generieren.
Stability AI hat Stable Diffusion 3.5 vorgestellt, das als das leistungsstärkste Open-Source-Bildgenerierungsmodell gilt.
🧠 ERKENNTNIS DER WOCHE
KI-Musik erobert die Charts – und du kannst mitmachen
Hast du schon den Song „Verknallt in einen Talahon” gehört? Wenn du jetzt mit den Augen rollst und denkst: „So einen Song brauche ich mir nun wirklich nicht anhören“ – halte einen Moment inne. Denn auch wenn dein Herz sonst eher für die Rolling Stones oder Taylor Swift schlägt, könnte der Song deine Neugier wecken. Er wurde nämlich vollständig von KI generiert und ist gerade in den deutschen Charts gelandet. Und auch wenn der Inhalt wohl eher unterste Schublade und nicht gerade unproblematisch ist – er geht viral und zeigt, wie KI gerade in alle Lebensbereiche einzieht. Auch in die Musikbranche.
Auch in unserer eigenen Community brodelt es kreativ. Ein tolles Beispiel ist Sandra, ein Mitglied unserer KI-Membership, die kürzlich ihr eigenes Musikvideo mit KI erstellt hat. Mit Hilfe von Tools wie Runway, Midjourney, Suno, Adobe und ChatGPT hat sie einen beeindruckenden Community-Song für neulandpro erstellt.
Das Ergebnis kann sich wirklich sehen lassen! Du kannst dir Sandras Werk auf YouTube anschauen und wer weiß: Vielleicht schickst du uns bald ja deine eigene Komposition?
Sandra ist übrigens ein Teil von neulandpro Expert.👇
Das Neulandpro Expert-Programm ist gestartet!
Sichere dir 1:1-Beratung von KI-Profis, die dein Business mit maßgeschneiderten Lösungen aufs nächste Level bringen. Starte jetzt mit einem kostenlosen Erstgespräch und erlebe, wie KI deine Prozesse revolutionieren kann!
👉Mehr erfahren: neulandpro.com/expert
🤖 AI-TOOLS
Voxxio: Tool, das aus deinen gesprochenen Ideen Storyboards visualisiert. (Link)
Kaiber Superstudio: AI-unterstütztes virtuelles Studio, das kreative KI-Tools, Bild- und Videomodelle vereint. (Link)
Wedding Speech Genie: Erstelle personalisierte Hochzeitsreden mit KI. (Link)
Kick: Buchhaltungssoftware, die die Arbeit für dich erledigt. (Link)
Focus Buddy: KI-Buddy, der dir hilft, produktiver zu arbeiten. (Link)
🧑🏫 AI-TUTORIAL DER WOCHE
Mindmaps, Diagramme und Präsentationen mit AI erstellen
MyMap AI-Website besuchen: Gehe auf die Website von MyMap AI und logge dich ein oder erstelle ein Konto.
Neue Mindmap erstellen: Sobald du eingeloggt bist, klicke auf „Create New Mindmap“ oder wähle einen spezifischen Typ wie „Concept Map“ oder „Node Map“.
Ideen eingeben: Nutze die Chat-Oberfläche, um deine Ideen einzugeben. MyMap AI generiert automatisch eine Mindmap.
Mindmap anpassen: Ändere die generierte Mindmap, indem du Knoten und Äste hinzufügst, löschst oder bearbeitest. Passe Farben, Formen und Verbindungen an, um deine Konzepte besser darzustellen.
Mindmap speichern und teilen: Speichere deine Mindmap und teile sie mit anderen, indem du Exportoptionen wie PNG oder JPEG nutzt. Du kannst auch in Echtzeit mit Teammitgliedern zusammenarbeiten, indem du sie einlädst.
Das war’s für diese Woche. Vielen Dank fürs Lesen!
Dir hat der Newsletter gefallen? Dann freue ich mich, wenn du ihn an deine Freunde weiterleitest. 🤗 (Anmeldelink).
Hier kannst du gerne meine vorherigen Newsletter durchstöbern.
Bis nächste Woche!
Henry