KI-Scam: 25 Millionen mit Deepfake-Videocall abgestaubt

Hey! Willkommen zurück zu deinem wöchentlichen AI-Update! Dein Newsletter für die KI-Revolution - immer up-to-date und einen Schritt voraus!

Heute habe ich für dich:

  • Die wichtigsten News der Woche 🔥

  • Erkenntnis der Woche: Die Gefahr der Deepfakes ⚠️

  • 5 Nützliche AI-Tools 🤖

  • AI-Tutorial der Woche: So erkennst du Deepfakes 🕵️



🔥 AI-NEWS

Apple Vision Pro: Das kann Apples revolutionäres Headset

Die Vision Pro ist Apples neuestes Gerät im Bereich des "räumlichen Computings", das KI, erweiterte Realität und eine Reihe weiterer Technologien kombiniert, um ein Produkt zu schaffen, das seit dem iPhone die gewagteste Neuerung von Apple darstellt. Der räumliche Computer in Brillenform verbindet nahtlos digitale Inhalte mit der physischen Welt und könnte einen ersten Vorgeschmack auf die Entwicklung unserer Computer der Zukunft geben. Damit werden auch viele neue KI-Anwendungsfälle möglich.

Schon in der ersten Woche konnte Apple laut Berichten 160.000 bis 180.000 Stück verkaufen. Die Rezensionen der User sprudeln vor Begeisterung, wie intuitiv die Handgesten sind und wie immersiv und neuartig sich das gesamte Erlebnis anfühlt. Die Brille kann u. a.:

Die schlechten Nachrichten: Die Apple Vision Pro ist ziemlich teuer. Das Headset ist aktuell für einen Preis von 3.500 US-Dollar erhältlich. Enorm viel Geld für ein Gerät, das sich noch nicht bewährt hat. Angesichts der begrenzten App-Auswahl, des hohen Gewichts, gelegentlicher Störungen und der begrenzten Akkukapazität ist die Kaufentscheidung derzeit nicht leicht. Wann die Brille in Deutschland auf den Markt kommt, ist noch offen.

Übernimmt Apple deutsches KI-Start-up Brighter AI?

Eine weitere News aus dem Hause Apple sorgt diese Woche für Schlagzeilen: Berichten zufolge befindet sich Apple in Gesprächen über die Übernahme des deutschen KI-Start-ups Brighter AI.

Das Start-up ist bekannt für seine Deep Natural Anonymization-Technologie, die in der Lage ist, Bilder in möglichst natürlicher aber datenschutzkonformer Optik zu verändern. Im Gegensatz zu anderen Technologien blurrt die KI von Brighter AI Passanten oder Nummernschilder nicht einfach aus, sondern ersetzt sie durch mit KI verfremdeten Gesichtern oder anderen Nummernreihenfolgen.

Apple möchte diese Technologie in seine Produkte integrieren, insbesondere in das Vision Pro VR/AR-Headset, um Datenschutzbedenken hinsichtlich der diskreten Bild- und Videoaufnahme auszuräumen.

Adobe Firefly ab jetzt für Apple Vision Pro verfügbar

Pünktlich zum Verkaufsstart der Apple Vision Pro in den USA bringt Adobe seine AI-Bildgenerierungssoftware Firefly als App für das Headset heraus. Mit Firefly auf dem Headset können User:

  • Bilder auf großen Displays generieren und Inhalte so näher betrachten

  • Bilder aus der Anwendung herausziehen und in realen Umgebungen, z. B. an Wänden im Raum, platzieren

  • Erstellen von Rundum-Panoramen, 360-Grad-Umgebungen uvm.

Neben Firefly kann auch Adobes Bildbearbeitungsprogramm Lightroom auf der Vision Pro verwendet werden. Das visionOS-Lightroom-Erlebnis bietet eine schlankere und vereinfachte Benutzeroberfläche als die Desktopvariante und soll mit Gesten intuitiv und einfach zu bedienen sein.

Hugging Face startet Konkurrenzprodukt zu GPT-Store

Das Unternehmen Hugging Face hat ein kostenloses Tool auf den Markt gebracht, mit dem Nutzer in wenigen Klicks ihre eigenen KI-Assistenten erstellen können. Dabei können sie zwischen verschiedenen Open-Source-Modellen wie Claude, LLaMA 2 und Mixtral wählen. Die Assistenten können anschließend in ein zentrales Verzeichnis aufgenommen werden, sodass auch andere Benutzer Zugriff erhalten.

Das Prinzip ähnelt den Custom-GPTs und dem GPT-Store von OpenAI, der allerdings kostenpflichtig ist. Dafür sind die kostenfreien KI-Assistenten auch leistungsschwächer, da sie im Gegensatz zu OpenAIs GPTs z.B. keinen Zugriff auf die Websuche oder Bildgenerierung haben. Diese Funktionen seien aber für zukünftige Integrationen geplant.

Google Bard wird zu Gemini

Google nennt seinen Bard-Chatbot in „Gemini“ um. Gemini steht für eine Reihe von Sprachmodellen, die in verschiedenen Leistungsklassen angeboten werden.

  • Gemini Nano: Ein kompaktes Modell, das dafür konzipiert ist, lokal auf Smartphones zu laufen und bei alltäglichen Aufgaben und Anfragen zu unterstützen.

  • Gemini Pro: Die Standardversion von Gemini soll in zahlreiche Google-Produkte integriert werden.

  • Gemini Ultra: Das leistungsstärkste Sprachmodell, dessen offizieller Start noch aussteht. Google verspricht mit Gemini Ultra die Grenzen dessen, was künstliche Intelligenz leisten kann, neu zu definieren. Das Modell soll kostenpflichtig sein.

Laut Googles Unternehmensblog wird Gemini Stück für Stück in verschiedene Google-Anwendungen einziehen. Das Google Pixel 8 Pro ist bereits mit Gemini Nano ausgestattet.

Außerdem hat Google seinen Chatbot um eine neue Bildgenerierungsfunktion erweitert. Mithilfe des Text-To-Bild-Modells Imagen 2 können Nutzer künftig hochwertige, fotorealistische Bilder zum Nulltarif generieren. Die Funktion ist in Deutschland allerdings noch nicht verfügbar.

Midjourney erhält neue Funktion für bessere Ergebnisse

Das KI-Bildtool Midjourney bekommt eine neue Funktion namens “Style References”. Mit dieser neuen Funktion können Nutzer ein oder mehrere Referenzbilder angeben, die Midjourney als Grundlage für ihre generierten Bilder nutzen soll. So könnt ihr die Funktion ausprobieren:

  • Gib nach deinem Prompt --sref ein und ergänze dahinter eine oder mehrere URL(s)

  • Midjourney betrachtet die Bild-URLs als „Stilreferenzen“ und versucht, die Ergebnisse dieser Ästhetik anzupassen

  • Du kannst auch verschiedene Stile angeben und sie wie folgt gewichten: --sref urlA::2 urlB::3 urlC::5


🧠 ERKENNTNIS DER WOCHE

Die Gefahr der Deepfakes

“Ich schwöre, dass ich Dönerpreise auf drei Euro lasse", sagt Ex-Bundeskanzlerin Angela Merkel in einem TikTok-Video und hebt zum Schwur ihre Hand. Im nächsten Video: Merkel als Bodybuilderin, die 200 kg stemmt. Dann: Merkel als Rapperin.

Würden sich Deepfakes doch nur auf solche (geschmacklosen) Gags beschränken.

Dass Deepfake-Videos mittlerweile leider immer mehr zur Gefahr werden, mussten zuletzt Taylor Swift und Joe Bilden schmerzlich erfahren. Im Netz kursierten mit Deepfake-Technologie erstellte pornografische Inhalte der Sängerin, während der US-Präsident in einem Video dazu aufrief, nicht zur Wahl zu gehen.

Auch einem großen internationalen Unternehmen wurde die verblüffende Qualität von Deepfake-Aufnahmen jetzt zum Verhängnis: Gut 25 Millionen Dollar zockten Scammer mithilfe einer gefakten Videokonferenz ab.

Durch immer besser werdende AI-Tools wird es immer einfacher realistische Deepfakes zu erstellen.

Behörden weltweit machen sich Sorgen über die Schäden, die durch Deepfake-Technologie entstehen können:

  • Deepfakes werden aktuell überwiegend für pornografische Inhalte verwendet, insbesondere gegen weibliche Prominente.

  • Im politischen Bereich werden Deepfakes genutzt, um gefälschte Reden oder Aussagen von Politikerinnen und Politikern zu verbreiten, mit dem Ziel, die öffentliche Meinung zu beeinflussen. Das kann ernsthafte Auswirkungen auf Wahlen und internationale Beziehungen haben.

  • Hacker nutzen die Deepfake-Technologie, um an persönliche Informationen oder Zugriff auf Konten zu gelangen. Sie können Videos oder Fotos manipulieren, um ihre Opfer zu imitieren und so Zugang zu sensiblen Daten wie Passwörtern oder Bankinformationen zu erlangen.

Wie können wir uns davor schützen? In meinem Tutorial (weiter unten) zeige ich dir heute, wie du Deepfakes identifizieren kannst.

In einem positiveren Kontext lassen sich Deepfakes auch für visuelle Effekte in Filmen nutzen. Sie bieten Unternehmen die Möglichkeit, Marketingmaterialien zu personalisieren oder virtuelle Kundenservice-Erlebnisse zu verbessern. Videos können mit wenigen Klicks in mehrere Sprachen übersetzt werden, wobei die Lippenbewegungen des Sprechers jeweils an die entsprechende Sprache angepasst werden. Das kann weltweit zu einem realistischeren Seherlebnis führen.


🤖 AI-TOOLS

  • HuggingChat: Eine Kollektion von Chat-Assistenten, basierend auf Open Source LLMs (Link)

  • MusicFX: Ein neues, kostenloses Text-To-Song-Tool von Google (Link)

  • Shortwave: AI-E-Mail-Tool, das dir hilft, Mails zu durchsuchen, in deinem Ton zu verfassen uvm. (Link

  • Mockey: AI-Mockup-Generator mit über 1.000 Produkt-Templates. (Link)

  • Ytube AI: Tool, das YouTube-Videos in SEO-freundliche Texte verwandelt. (Link)


🧑‍🏫 AI-TUTORIAL DER WOCHE

So erkennst du Deepfakes

"Trau nicht allem, was im Internet steht", ist ein Spruch, der uns schon seit Jahren begleitet. In Zeiten von Deepfakes ist es besonders wichtig, kritisch zu hinterfragen, was wir online sehen und hören.

Aber wie erkennt man einen Deepfake? Natürlich hängt es von der Raffinesse der Technologie ab. Einige Deepfake-Videos sind offensichtlich, während andere täuschend echt wirken. Hier sind einige Anzeichen, auf die du achten kannst:

1. Störungen oder Anomalien in Bewegung, Sprache oder Aussehen: Es ist extrem schwierig, eine Person perfekt nachzuahmen. Daher können auffällige Ungereimtheiten im Deepfake auftreten. Achte auf unnatürliche Augenbewegungen, fehlende Emotionen oder asynchrone Lippenbewegungen. Auch ungewöhnliche Schnitte im Video oder Unschärfe an den Gesichtsrändern können darauf hinweisen, dass Teile des Videos oder Bildes bearbeitet oder manipuliert wurden.

2. Widersprüche zu früheren Aufnahmen der Person: Oft hilft der gesunde Menschenverstand bei der Erkennung von Deepfakes. Polarisierende Aussagen, die nicht zum üblichen Meinungsbild der Person passen, können ein erster Hinweis auf einen Fake sein. Überprüfe auch, ob es Unstimmigkeiten mit früheren Aufnahmen oder Fotos gibt. Stimmen Verhalten, Mimik und Stimme überein?

3. Quellen überprüfen: Recherchiere die Herkunft einer verdächtigen Aufnahme. Stammt sie von einer seriösen Quelle oder von einem nicht verifizierten Konto? Beachte jedoch, dass selbst die Quelle gefälscht sein könnte.

4. Deepfake-Erkennungssysteme verwenden: Zu guter Letzt kannst du auch Erkennungssysteme wie Deepware nutzen. Diese nutzen künstliche Intelligenz und maschinelles Lernen, um Muster zu analysieren und mögliche Manipulationen in Videos oder Audioaufnahmen zu erkennen. Sie sind zwar nicht immer 100 % zuverlässig, aber die Technologie wird stetig verbessert.

Trotzdem wird es immer schwieriger, Deepfakes zu erkennen. Eine mögliche Lösung könnte sein, dass KI-generierte Medien in Zukunft verpflichtend mit einem Wasserzeichen versehen werden müssen, ähnlich dem "Audioseal"-Projekt von Meta.


Das war’s für diese Woche. Vielen Dank fürs Lesen!

Dir hat der Newsletter gefallen? Dann freue ich mich, wenn du ihn an deine Freunde weiterleitest. (Anmeldelink).

Hier kannst du gerne meine vorherigen Newsletter durchstöbern.

Bis nächsten Mittwoch!

Henry


Zurück
Zurück

Hype um Gemini-Ultra: Kann Googles neues KI GPT-4 verdrängen?

Weiter
Weiter

Googles Durchbruch in KI-Videogenerierung