• BIST 9915.62
  • Altın 2440.177
  • Dolar 32.4575
  • Euro 34.7559
  • Lefkoşa 27 °C
  • Mağusa 28 °C
  • Girne 23 °C
  • Güzelyurt 27 °C
  • İskele 28 °C
  • İstanbul 19 °C
  • Ankara 23 °C

Deepfake" tehlikesi büyüyor: Fotoğraf karesinden video üretmek artık çok kolay

Yapay zeka artık fotoğrafları canlandırarak videoya dönüştürebiliyor. Midjourney, geliştirdiği V5.2 versiyonuyla birlikte fotoğrafta fırça yardımıyla belirtilen bölgelere hareket kazandırarak video üretiyor.
Deepfake" tehlikesi büyüyor: Fotoğraf karesinden video üretmek artık çok kolay

Yapay zeka son 1 yıl içerisinde hayatımızın her alanına entegre olmuş durumda. 

ChatGPT, Bing, Bard ve Baidu gibi birçok yapay zeka sohbet asistanıyla birlikte kullanıcılar arama motorlarından ziyade sorularını yapay zekaya sormaya başladı.

ChatGPT'nin Dall-E'sine benzeyen Midjourney, V5.1 sürümünde yapay zekaya verilen komutlar dahilinde görseller oluşturabiliyordu.

Şirket V5.2 versiyonuyla birlikte artık yapay zekanın fotoğrafları videoya dönüştürdüğünü ortaya koydu.

FOTOĞRAFLARI VİDEOYA DÖNÜŞTÜRÜYOR

Midjourney'in pazarlama danışmanı Rory Flynn'ın sosyal medya plaformu X'te paylaştığı bir videoda bu özelliğin kullanılmaya başlandığını gözler önüne serdi.

Paylaşılan videoda alan derinliği bulunan bir kuş fotoğrafı yer alıyor. Midjourney ile hareket ettirilmek istenen bölgelerin seçilmesiyle birlikte kuşun ve seçilen yerlerin hareket etmeye başladığı görüldü.

DEEPFAKE VİDEO

Bilindiği üzere yapay zekanın gelişmesiyle birlikte "deep fake"  yani gerçek gibi gözüken aslında yapay zeka tarafından oluşturulan videoların da sayısı çoğalıyor.

Ancak deep fake oluşturulacak içerik için bir video altyapısının bulunması gerekiyordu.

Örnek olarak; bir kişinin yakın plan çekim konuşması herhangi bir ünlünün sesi ve yüzüyle değiştirilerek deep fake videolar oluşturulabiliyordu.

Midjourney ise bu durum biraz farklı bir boyuta taşıyarak deep fake videolar üretmek için fotoğrafın olması yeterli oluyor.

  • Yorumlar 0
  • Facebook Yorumları 0
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
Bu habere henüz yorum eklenmemiştir.
Diğer Haberler