KaramelaYedi
New member
Bilim Sahte gerçeklik
Görüntülerin gerçeği için yarış
Şu tarihten itibaren: 27 Şubat 2024| Okuma süresi: 4 dakika
“Sora” ile oluşturulan bir videodan sahne: Zarif giyimli bir kadın Tokyo'da yürüyor
Kaynak: OpenAI
WELT podcast'lerimizi buradan dinleyebilirsiniz
Gömülü içeriğin görüntülenmesi için, üçüncü taraf sağlayıcılar olarak gömülü içeriğin sağlayıcıları bu izni gerektirdiğinden, kişisel verilerin iletilmesi ve işlenmesine ilişkin geri alınabilir onayınız gereklidir. [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Anahtarı “açık” konuma getirerek bunu kabul etmiş olursunuz (herhangi bir zamanda iptal edilebilir). Bu aynı zamanda GDPR Madde 49 (1) (a) uyarınca belirli kişisel verilerin ABD dahil üçüncü ülkelere aktarılmasına ilişkin onayınızı da içerir. Bu konuda daha fazla bilgi bulabilirsiniz. Sayfanın altındaki anahtarı ve gizliliği kullanarak onayınızı istediğiniz zaman iptal edebilirsiniz.
Yapay zeka modeli “Sora”nın bu talimatları kullanarak şaşırtıcı derecede gerçekçi görünen video klipler oluşturması için iki veya üç kısa cümle yeterlidir. Uzmanlar yeni bir sahtecilik kalitesine ve yaklaşmakta olan bir “sahte gerçekliğe” karşı uyarıyor. İstismar nasıl önlenebilir?
DOpenAI firmasının sunduğu, kısa metin talimatlarını girdikten sonra bağımsız olarak bir dakikaya kadar uzunlukta videolar oluşturabilen yapay zeka modeli “Sora”, geçtiğimiz haftalarda oldukça ilgi gördü. Full HD çözünürlükteki video klipler o kadar mükemmel ve fotogerçekçi görünüyor ki, uzmanlar bile ilk bakışta bunların fantastik ürünler olduğunu anlayamıyor.
“Sora”nın kötüye kullanıma karşı koruma sağlamak için ne zaman ve hangi önlemlerle genel kullanıma sunulacağı henüz bilinmiyor, ancak uzmanlar şimdiden yeni teknolojinin kullanımıyla ilişkili riskleri ve bunlarla nasıl başa çıkılması gerektiğini tartışıyorlar. “Sahte haberlerin” olduğu bir dünyadan tam bir “sahte gerçekliğe” doğru niteliksel bir sıçrama korkusu var.
Zürih Üniversitesi İletişim Bilimi ve Medya Araştırmaları Enstitüsü'nden Sabrina Heike Kessler, “Yapay zeka tarafından oluşturulan videolar gerçek ile kurguyu birbirinden ayırt edilemez hale getirebilir” diye uyarıyor: “Dolayısıyla yanlış bilgi yayma ve dolayısıyla görüş oluşumunu olumsuz yönde etkileme potansiyeline sahipler. ”
“Sora” ile oluşturulan videodan bir sahne: Burano'da renkli bir binanın önünde bir Dalmaçyalı
Kaynak: OpenAI
Özellikle yanıltıcı derecede gerçekçi görünen fantastik videoların demokratik seçimlerin sonucunu etkileyebileceğine dair endişeler var. Görüntüleri ve videoları otomatik olarak oluşturmak ve değiştirmek için kullanılabilecek birçok program vardır. Ancak “Sora” ile hesaplanan görüntüler daha önce mümkün olmayan bir mükemmellik seviyesine ulaştı ve bu nedenle aldatma potansiyeli çok daha yüksek.
Yakından bakarsanız “Sora” yapımlarında hala küçük hatalar keşfedebilirsiniz. OpenAI şirketi, metinden videoya yapay zekanın bazı fiziksel olayları henüz tam olarak anlamadığını açıkça kabul ediyor. Yapay zekanın da temel olarak fizik ve mantıkla ilgili sorunları olduğunu bilmek güzel. Ancak uzmanlar bu diş çıkarma sorunlarının çok çabuk aşılacağını varsayıyor. “Sora” hızla öğreniyor. Yakında yapay zeka tarafından üretilen bir videonun maskesi artık yalnızca eleştirel bir bakışla ortaya çıkarılamayacak.
Tutarsız göz kırpma kalıpları
Saarbrücken'deki Helmholtz Bilgi Güvenliği Merkezi'nden (CISPA) Profesör Thorsten Holz, yapay zeka tarafından oluşturulan görüntü ve videoların teknik olarak tanınması üzerinde çalışıyor. Holz, “Bu hızla gelişen bir araştırma alanıdır” diyor ve ekliyor: “Mevcut yaklaşımlar algoritmik üretim süreçlerinden kaynaklanan tutarsızlıkları tespit etmeye odaklanıyor. Bunlar, görüntünün frekans spektrumundaki anormallikleri veya olağandışı gözbebeği yansımaları, gözlerin tutarsız yanıp sönme modelleri, göze çarpan cilt dokuları ve yanlış veya tutarsız arka plan ayrıntıları gibi anlamsal anormallikleri içerir.” Ayrıca sahte videolar, görüntüler arasındaki tutarsızlıklar nedeniyle de ortaya çıkarılabilir. ve ses.
Holz, “Zorluk, etik ve yasal hususları hesaba katarak sürekli gelişen teknolojiye ayak uydurabilmektir” diyor. Ayrıca bu tür analiz araçları, yapay zeka tarafından oluşturulan içeriğin zayıf yönlerini azaltmak ve daha gerçekçi görünmesini sağlamak için de kullanılabilir. “Klasik bir silahlanma yarışı sürüyor.”
Pek çok uzman, yapay zeka tarafından oluşturulan videolar için zorunlu etiketleme çağrısında bulunuyor. Örneğin, Leipzig Üniversitesi'nde siyasi iletişim alanında öğretim görevlisi olan Profesör Christian Hoffmann şunları söylüyor: “Yapay zeka tarafından oluşturulan içeriği, örneğin bir not veya etiket aracılığıyla tanınabilir hale getirmek mantıklı görünüyor.”
Alarmizm zararlı olabilir
Elbette yapay zekayı suç enerjisiyle kötüye kullanmak isteyen aktörlerin etiketleme zorunluluğuna uymayacağını da biliyor. Ancak öngörülebilir gelecekte, “Sora” kalitesinde veya daha iyi kalitede aldatıcı derecede gerçek videolar yalnızca birkaç büyük sağlayıcının sistemleriyle mümkün olacak. Yapay zekalarının yardımıyla oluşturulan videoların kaldırılamaz bir “dijital filigrana” sahip olmasını teknik olarak garanti ederlerse çok şey başarılabilir.
Burada üçüncü taraflardan içerik bulacaksınız
Gömülü içeriğin görüntülenmesi için, üçüncü taraf sağlayıcılar olarak gömülü içeriğin sağlayıcıları bu izni gerektirdiğinden, kişisel verilerin iletilmesi ve işlenmesine ilişkin geri alınabilir onayınız gereklidir. [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Anahtarı “açık” konuma getirerek bunu kabul etmiş olursunuz (herhangi bir zamanda iptal edilebilir). Bu aynı zamanda GDPR Madde 49 (1) (a) uyarınca belirli kişisel verilerin ABD dahil üçüncü ülkelere aktarılmasına ilişkin onayınızı da içerir. Bu konuda daha fazla bilgi bulabilirsiniz. Sayfanın altındaki anahtarı ve gizliliği kullanarak onayınızı istediğiniz zaman iptal edebilirsiniz.
Teknolojik çözümler tek başına yeterli olmayabilir. Holz, “Yapay zeka tarafından oluşturulan içeriğin varlığı ve tehlikeleri konusunda halkı eğitmek stratejinin önemli bir parçası olmalı” diyor. Hoffmann, “Vatandaşların büyük çoğunluğunun bilgilerini saygın kaynaklardan alması çok önemli” diyor. Bugün de durum aynıdır. Gazeteciliğin “ciddi yanıltma girişimlerini ortaya çıkarmak” gibi önemli bir görevi var.
Ancak Hoffmann, eğitim çalışmasının dengeleyici bir eylem olduğuna ve gereksiz yere korkuların uyandırılmaması gerektiğine dikkat çekiyor. “Manipüle edilmiş içerikten çok fazla korku varsa, bu durum seçmenlerin saygın kaynaklardan gelen gerçek içeriklere daha az güvenmelerine yol açabilir. O zaman alarmcı bir söylemin zararı faydasından daha büyük olur.”
Görüntülerin gerçeği için yarış
Şu tarihten itibaren: 27 Şubat 2024| Okuma süresi: 4 dakika
“Sora” ile oluşturulan bir videodan sahne: Zarif giyimli bir kadın Tokyo'da yürüyor
Kaynak: OpenAI
WELT podcast'lerimizi buradan dinleyebilirsiniz
Gömülü içeriğin görüntülenmesi için, üçüncü taraf sağlayıcılar olarak gömülü içeriğin sağlayıcıları bu izni gerektirdiğinden, kişisel verilerin iletilmesi ve işlenmesine ilişkin geri alınabilir onayınız gereklidir. [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Anahtarı “açık” konuma getirerek bunu kabul etmiş olursunuz (herhangi bir zamanda iptal edilebilir). Bu aynı zamanda GDPR Madde 49 (1) (a) uyarınca belirli kişisel verilerin ABD dahil üçüncü ülkelere aktarılmasına ilişkin onayınızı da içerir. Bu konuda daha fazla bilgi bulabilirsiniz. Sayfanın altındaki anahtarı ve gizliliği kullanarak onayınızı istediğiniz zaman iptal edebilirsiniz.
Yapay zeka modeli “Sora”nın bu talimatları kullanarak şaşırtıcı derecede gerçekçi görünen video klipler oluşturması için iki veya üç kısa cümle yeterlidir. Uzmanlar yeni bir sahtecilik kalitesine ve yaklaşmakta olan bir “sahte gerçekliğe” karşı uyarıyor. İstismar nasıl önlenebilir?
DOpenAI firmasının sunduğu, kısa metin talimatlarını girdikten sonra bağımsız olarak bir dakikaya kadar uzunlukta videolar oluşturabilen yapay zeka modeli “Sora”, geçtiğimiz haftalarda oldukça ilgi gördü. Full HD çözünürlükteki video klipler o kadar mükemmel ve fotogerçekçi görünüyor ki, uzmanlar bile ilk bakışta bunların fantastik ürünler olduğunu anlayamıyor.
“Sora”nın kötüye kullanıma karşı koruma sağlamak için ne zaman ve hangi önlemlerle genel kullanıma sunulacağı henüz bilinmiyor, ancak uzmanlar şimdiden yeni teknolojinin kullanımıyla ilişkili riskleri ve bunlarla nasıl başa çıkılması gerektiğini tartışıyorlar. “Sahte haberlerin” olduğu bir dünyadan tam bir “sahte gerçekliğe” doğru niteliksel bir sıçrama korkusu var.
Zürih Üniversitesi İletişim Bilimi ve Medya Araştırmaları Enstitüsü'nden Sabrina Heike Kessler, “Yapay zeka tarafından oluşturulan videolar gerçek ile kurguyu birbirinden ayırt edilemez hale getirebilir” diye uyarıyor: “Dolayısıyla yanlış bilgi yayma ve dolayısıyla görüş oluşumunu olumsuz yönde etkileme potansiyeline sahipler. ”
“Sora” ile oluşturulan videodan bir sahne: Burano'da renkli bir binanın önünde bir Dalmaçyalı
Kaynak: OpenAI
Özellikle yanıltıcı derecede gerçekçi görünen fantastik videoların demokratik seçimlerin sonucunu etkileyebileceğine dair endişeler var. Görüntüleri ve videoları otomatik olarak oluşturmak ve değiştirmek için kullanılabilecek birçok program vardır. Ancak “Sora” ile hesaplanan görüntüler daha önce mümkün olmayan bir mükemmellik seviyesine ulaştı ve bu nedenle aldatma potansiyeli çok daha yüksek.
Yakından bakarsanız “Sora” yapımlarında hala küçük hatalar keşfedebilirsiniz. OpenAI şirketi, metinden videoya yapay zekanın bazı fiziksel olayları henüz tam olarak anlamadığını açıkça kabul ediyor. Yapay zekanın da temel olarak fizik ve mantıkla ilgili sorunları olduğunu bilmek güzel. Ancak uzmanlar bu diş çıkarma sorunlarının çok çabuk aşılacağını varsayıyor. “Sora” hızla öğreniyor. Yakında yapay zeka tarafından üretilen bir videonun maskesi artık yalnızca eleştirel bir bakışla ortaya çıkarılamayacak.
Tutarsız göz kırpma kalıpları
Saarbrücken'deki Helmholtz Bilgi Güvenliği Merkezi'nden (CISPA) Profesör Thorsten Holz, yapay zeka tarafından oluşturulan görüntü ve videoların teknik olarak tanınması üzerinde çalışıyor. Holz, “Bu hızla gelişen bir araştırma alanıdır” diyor ve ekliyor: “Mevcut yaklaşımlar algoritmik üretim süreçlerinden kaynaklanan tutarsızlıkları tespit etmeye odaklanıyor. Bunlar, görüntünün frekans spektrumundaki anormallikleri veya olağandışı gözbebeği yansımaları, gözlerin tutarsız yanıp sönme modelleri, göze çarpan cilt dokuları ve yanlış veya tutarsız arka plan ayrıntıları gibi anlamsal anormallikleri içerir.” Ayrıca sahte videolar, görüntüler arasındaki tutarsızlıklar nedeniyle de ortaya çıkarılabilir. ve ses.
Holz, “Zorluk, etik ve yasal hususları hesaba katarak sürekli gelişen teknolojiye ayak uydurabilmektir” diyor. Ayrıca bu tür analiz araçları, yapay zeka tarafından oluşturulan içeriğin zayıf yönlerini azaltmak ve daha gerçekçi görünmesini sağlamak için de kullanılabilir. “Klasik bir silahlanma yarışı sürüyor.”
Pek çok uzman, yapay zeka tarafından oluşturulan videolar için zorunlu etiketleme çağrısında bulunuyor. Örneğin, Leipzig Üniversitesi'nde siyasi iletişim alanında öğretim görevlisi olan Profesör Christian Hoffmann şunları söylüyor: “Yapay zeka tarafından oluşturulan içeriği, örneğin bir not veya etiket aracılığıyla tanınabilir hale getirmek mantıklı görünüyor.”
Alarmizm zararlı olabilir
Elbette yapay zekayı suç enerjisiyle kötüye kullanmak isteyen aktörlerin etiketleme zorunluluğuna uymayacağını da biliyor. Ancak öngörülebilir gelecekte, “Sora” kalitesinde veya daha iyi kalitede aldatıcı derecede gerçek videolar yalnızca birkaç büyük sağlayıcının sistemleriyle mümkün olacak. Yapay zekalarının yardımıyla oluşturulan videoların kaldırılamaz bir “dijital filigrana” sahip olmasını teknik olarak garanti ederlerse çok şey başarılabilir.
Burada üçüncü taraflardan içerik bulacaksınız
Gömülü içeriğin görüntülenmesi için, üçüncü taraf sağlayıcılar olarak gömülü içeriğin sağlayıcıları bu izni gerektirdiğinden, kişisel verilerin iletilmesi ve işlenmesine ilişkin geri alınabilir onayınız gereklidir. [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Anahtarı “açık” konuma getirerek bunu kabul etmiş olursunuz (herhangi bir zamanda iptal edilebilir). Bu aynı zamanda GDPR Madde 49 (1) (a) uyarınca belirli kişisel verilerin ABD dahil üçüncü ülkelere aktarılmasına ilişkin onayınızı da içerir. Bu konuda daha fazla bilgi bulabilirsiniz. Sayfanın altındaki anahtarı ve gizliliği kullanarak onayınızı istediğiniz zaman iptal edebilirsiniz.
Teknolojik çözümler tek başına yeterli olmayabilir. Holz, “Yapay zeka tarafından oluşturulan içeriğin varlığı ve tehlikeleri konusunda halkı eğitmek stratejinin önemli bir parçası olmalı” diyor. Hoffmann, “Vatandaşların büyük çoğunluğunun bilgilerini saygın kaynaklardan alması çok önemli” diyor. Bugün de durum aynıdır. Gazeteciliğin “ciddi yanıltma girişimlerini ortaya çıkarmak” gibi önemli bir görevi var.
Ancak Hoffmann, eğitim çalışmasının dengeleyici bir eylem olduğuna ve gereksiz yere korkuların uyandırılmaması gerektiğine dikkat çekiyor. “Manipüle edilmiş içerikten çok fazla korku varsa, bu durum seçmenlerin saygın kaynaklardan gelen gerçek içeriklere daha az güvenmelerine yol açabilir. O zaman alarmcı bir söylemin zararı faydasından daha büyük olur.”