Çarşamba, Şubat 1, 2023
  • Anasayfa
  • Eğitim
  • Ekonomi
  • Gündem
  • Kültür Sanat
  • Magazin
  • Spor
  • Siyaset
Haberler Giresun - Son Dakika Haberler
  • Anasayfa
  • Eğitim
  • Ekonomi
  • Gündem
  • Kültür Sanat
  • Magazin
  • Spor
  • Siyaset
No Result
View All Result
Haberler Giresun - Son Dakika Haberler
No Result
View All Result
Home Sokak

Amazon Alexa yakında ölen kişinin dahi sesini taklit edebilecek

by admin
16 Ağustos 2022
in Sokak
0

Amazon, ülkemizde şimdi kullanılmayan dünyaca ünlü sesli asistanı Alexa için enteresan bir güncelleme yayınlamayı planlıyor. Kullanıcılar yeni gelecek güncelleme ile birlikte Alexa’yı aile ya da arkadaşlarından birinin sesini taklit edecek biçimde kullanabilecek.

Amazon’un kıdemli lider yardımcısı Rohit Prasad, şirketin Çarşamba günü Las Vegas’ta düzenlediği bir konferansta, kullanıcıların Alexa’nın bir dakikadan daha az bir ses duyduktan sonra rastgele bir sesi taklit etmesine müsaade verecek bir sistem geliştirmeyi başardıklarını söyledi. Prasad, amacın pandemi sırasında “pek çoğumuzun sevdiğimiz birini kaybettikten” sonra “anılarını kalıcı kılmak” olduğunu belirtti.

Amazon, sistemin hazır olduğunu söylemesine karşın kullanıcılara bu özelliğin ne vakit sunulacağı ile ilgili bir tarih vermekten kaçındı. Muhtemelen bu usul bir güncelleme muadilleri ortasında birinci sefer sunulacağından Amazon tarafından gerekli müsaadelerin alınması için çalışmalar yürütülüyor.

SAHTEKARLIKLARIN ARTMASINA NEDEN OLABİLİR

Bu şekil projeler her ne kadar Amazon tarafından birinci kere duyurulsa da birinci örnek değil. Misal projeler birçok yarar sağlayabiliyor lakin suistimallerin de yaşanmasına neden oluyor. Microsoft, sunduğu yapay zekâ teknolojilerinde sesin taklit edilmesini kısıtladı. Microsoft’un ses taklit özelliği konuşma bozukluğu yahut diğer meseleleri olan insanlara yardım etmeyi amaçlıyordu. Lakin birçok uzmanın bunun politik derin sahtekarlıkları yaymak için kullanılabileceğinden kaygı etmesi üzerime Microsoft bu özelliği kısıtlamayı tercih etti.

Amazon, konferansta yeni Alexa’nın arkadaşlık vizyonunu da paylaştı. Bir görüntü tanıtımda, “Alexa, büyükannem bana Oz Büyücüsü’nü okumayı bitirebilir mi?” biçiminde soru bir çocuk tarafından Alexa’ya yöneltiliyor. Daha sonra Alexa komutu onayladı ve sesini değiştirdi. Masal anlatan Alexa, daha az robotik, görünüşte çocuğun gerçek hayattaki büyükannesi üzere konuşuyordu. 

Proje ne kadar pak görünse de ses taklit uygulamaları Deepfake üzere teknolojiler ile birleştirildiğinde sahtekarlıkların önünü daha da açabilir. 

KAYNAK: REUTERS, HABER7
Tags: AlexaAmazonSesTaklit
Next Post

Dolar ve Euro'nun gözü Merkez Bankası'nda! İşte ilk rakamlar

Menderes Belediye Başkanı Mustafa Kayalar serbest bırakıldı

Altın fiyatları yatay seyrediyor

  • Anasayfa
  • Eğitim
  • Ekonomi
  • Gündem
  • Kültür Sanat
  • Magazin
  • Spor
  • Siyaset
Ataşehir escort - Anadolu yakası escort - Anadolu yakası escort - Kadıköy escort - Bostancı escort - Bostancı escort - Ataşehir escort - Ataşehir escort - Kadıköy escort - Ümraniye escort - Ümraniye escort - Ümraniye escort -
SKYPE İRTİBAT -
No Result
View All Result
  • Anasayfa
  • Eğitim
  • Ekonomi
  • Gündem
  • Kültür Sanat
  • Magazin
  • Spor
  • Siyaset

Ankara escortescort bahçeşehirizmir escort