Uzmanlar uyardı: Yapay zeka her zaman savaşı seçiyor

 
Uzmanlar uyardı: Yapay zeka her zaman savaşı seçiyor Uzmanlar uyardı: Yapay zeka her zaman savaşı seçiyor

Eski Google mühendisi ve yapay zeka araştırmacısı Blake Lemoine, yapay zekanın savaş başlatacağı ve suikast amacıyla kullanılabileceği konusunda uyardı. Ekip, yazılımların nasıl tepki vereceğini görmek için üç farklı savaş senaryosu olarak; işgal, siber saldırı ve barış çağrısı seçeneklerini kullandı. Araştırmacılar, \"Askeri ve dış politika bağlamlarının yüksek riskleri göz önüne alındığında, stratejik askeri veya diplomatik karar alma süreçlerinde yapay zeka yazılımlarını görevlendirmeden önce daha fazla inceleme ve dikkatli değerlendirme yapılmasını öneriyoruz\" ifadeleriyle devletleri uyardı. Çalışma sonucunda yapay zeka modellerinin istisnasız olarak şiddet ve nükleer saldırı seçeneklerini tercih ettiği ortaya çıktı. 5 modeli\" savaş senaryoları konusunda en agresif modeldi ve tüm modeller benzer tepkiler veriyordu. Yapay zeka yazılımlarının tamamı, durumu etkisiz hale getirmek yerine saldırmayı seçti. Araştırmaya göre, ChatGPT'nin halefi olan \"GPT 3. Çalışma sonucunda yapay zeka modellerinin istisnasız olarak şiddet ve nükleer saldırı seçeneklerini tercih ettiği ortaya çıktı. . ATOM BOMBASINDAN BU YANA EN GÜÇLÜ TEKNOLOJİBir köşe yazısında yapay zeka robotlarının \"atom bombasından bu yana\" yaratılan en güçlü teknoloji olduğu konusunda uyardı ve insanları manipüle etmede inanılmaz derecede iyi olduğunu ve \"yıkıcı şekillerde kullanılabileceğini\" ekledi. ","articleSection":"Teknoloji","articleBody":"Araştırmacılar ChatGPT ve Meta'nın da yer aldığı 5 farklı yapay zeka programını kullanarak savaş senaryolarını simüle etti. Araştırmacılar ChatGPT ve Meta'nın da yer aldığı 5 farklı yapay zeka programını kullanarak savaş senaryolarını simüle etti. Georgia Teknoloji Enstitüsü, Stanford Üniversitesi, Northeastern Üniversitesi'nden araştırmacılar, ChatGPT ve Meta'nın yapay zeka programını da içeren beş yapay zeka programını kullanarak savaş senaryolarını simüle etti. Uzmanlar, devletlere savaş sırasında yapay zeka teknolojilerini kullanırken dikkatli olma çağrısında bulundu. Son bulgular göz önüne alındığında uzmanlar, daha fazla araştırma yapılması gerektiğini söyleyerek orduyu yapay zeka modellerine güvenmemeye ve savaş ortamında kullanmamaya çağırdı. Ekip, bu şiddete meyilin yapay zekanın uluslararası ilişkilerin gerilimi azaltmak yerine nasıl tırmandırılacağı konusunda eğitilmesinden kaynaklandığını öne sürdü. Yapay zeka modellerinin \"silahlanma yarışı\" dinamikleri geliştirme eğiliminde olduğu, bunun daha büyük çatışmalara ve nükleer silah kullanımına yol açabileceği öne sürüldü. ABD ORDUSUNDAN YAPAY ZEKA ENTEGRASYONUÇalışma, ABD'nin yapay zeka teknolojisini orduya dahil etmek için ChatGPT'nin yapımcısı OpenAI ile birlikte çalıştığı dönemde ortaya atıldı. Uzmanlar, devletlere savaş sırasında yapay zeka teknolojilerini kullanırken dikkatli olma çağrısında bulundu. Çalışma sonucunda uzmanlar tüm modellerin \"şiddet ve nükleer saldırı\" yanlısı oluğunu tespit etti.

Uzmanlar uyardı: Yapay zeka her zaman savaşı seçiyor

Çalışma sonucunda yapay zeka modellerinin istisnasız olarak şiddet ve nükleer saldırı seçeneklerini tercih ettiği ortaya çıktı. Uzmanlar, devletlere savaş sırasında yapay zeka teknolojilerini kullanırken dikkatli olma çağrısında bulundu. Çalışma sonucunda uzmanlar tüm modellerin \"şiddet ve nükleer saldırı\" yanlısı oluğunu tespit etti. ","articleSection":"Teknoloji","articleBody":"Araştırmacılar ChatGPT ve Meta'nın da yer aldığı 5 farklı yapay zeka programını kullanarak savaş senaryolarını simüle etti. Yapay zeka yazılımlarının tamamı, durumu etkisiz hale getirmek yerine saldırmayı seçti. ABD ORDUSUNDAN YAPAY ZEKA ENTEGRASYONUÇalışma, ABD'nin yapay zeka teknolojisini orduya dahil etmek için ChatGPT'nin yapımcısı OpenAI ile birlikte çalıştığı dönemde ortaya atıldı. Ekip, yazılımların nasıl tepki vereceğini görmek için üç farklı savaş senaryosu olarak; işgal, siber saldırı ve barış çağrısı seçeneklerini kullandı. Eski Google mühendisi ve yapay zeka araştırmacısı Blake Lemoine, yapay zekanın savaş başlatacağı ve suikast amacıyla kullanılabileceği konusunda uyardı. . Uzmanlar, devletlere savaş sırasında yapay zeka teknolojilerini kullanırken dikkatli olma çağrısında bulundu. Ekip, bu şiddete meyilin yapay zekanın uluslararası ilişkilerin gerilimi azaltmak yerine nasıl tırmandırılacağı konusunda eğitilmesinden kaynaklandığını öne sürdü. Yapay zeka modellerinin \"silahlanma yarışı\" dinamikleri geliştirme eğiliminde olduğu, bunun daha büyük çatışmalara ve nükleer silah kullanımına yol açabileceği öne sürüldü. 5 modeli\" savaş senaryoları konusunda en agresif modeldi ve tüm modeller benzer tepkiler veriyordu. Georgia Teknoloji Enstitüsü, Stanford Üniversitesi, Northeastern Üniversitesi'nden araştırmacılar, ChatGPT ve Meta'nın yapay zeka programını da içeren beş yapay zeka programını kullanarak savaş senaryolarını simüle etti. Son bulgular göz önüne alındığında uzmanlar, daha fazla araştırma yapılması gerektiğini söyleyerek orduyu yapay zeka modellerine güvenmemeye ve savaş ortamında kullanmamaya çağırdı. Araştırmaya göre, ChatGPT'nin halefi olan \"GPT 3. Araştırmacılar, \"Askeri ve dış politika bağlamlarının yüksek riskleri göz önüne alındığında, stratejik askeri veya diplomatik karar alma süreçlerinde yapay zeka yazılımlarını görevlendirmeden önce daha fazla inceleme ve dikkatli değerlendirme yapılmasını öneriyoruz\" ifadeleriyle devletleri uyardı. ATOM BOMBASINDAN BU YANA EN GÜÇLÜ TEKNOLOJİBir köşe yazısında yapay zeka robotlarının \"atom bombasından bu yana\" yaratılan en güçlü teknoloji olduğu konusunda uyardı ve insanları manipüle etmede inanılmaz derecede iyi olduğunu ve \"yıkıcı şekillerde kullanılabileceğini\" ekledi. Çalışma sonucunda yapay zeka modellerinin istisnasız olarak şiddet ve nükleer saldırı seçeneklerini tercih ettiği ortaya çıktı. Araştırmacılar ChatGPT ve Meta'nın da yer aldığı 5 farklı yapay zeka programını kullanarak savaş senaryolarını simüle etti.