Uzmanlar yapay zeka programı ChatGPT hakkında uyarıyor

Teknoloji şirketi Open AI tarafından Kasım ayında tanıtılan ChatGPT, türünün en sofistike programı olarak kabul ediliyor. ChatGPT bir soruya şiir, şarkı sözleri, denemeler ve bir biyografi ile yanıt verebiliyor. Bazı araştırmacılar, bu programdan heyecan duyduğunu söylüyor. Ancak ChatGPT’nin orijinal düşünce üretmek yerine ‘kalıp eşleştirme’ olarak adlandırdığı bilgiyi yeniden ürettiğini de belirtiyorlar. 

Araştırmacılar, yapay zeka destekli sohbet botunun, bir komutun sonucunu tahmin eden bir sistem olarak tanımlıyor. ChatGPT, Google’a benziyor ancak sadece yanıtlar vermekle kalmıyor, aynı zamanda bunları açıklıyor. Şu anda Google’a girdiğinizde, aramalarınızın tüm sonuçların tamamını okuyabilmenizin hiçbir yolu bulunmuyor. Ancak ChatGPT’de sonuçlar daha farklı şekilleniyor: Bir bilgisayara bir sistem ve tüm bu bağlantılara erişim verirseniz, ilk bağlantıyı, ikinci bağlantıyı, 100.000 bağlantıya kadar okuyabilir ve size şunu söylemek için bir model formüle edebilir.

Aynı zamanda uzmanlar, ChatGPT’nin bilgisayar kodu da yazabildiğini de söylüyor. Bu durum, doğal olarak bilgisayar ve yazılım hizmetleri veren bazı şirketleri endişelendiriyor. Yazılımcıların belki de geliştirmesi haftalar sürecek kodu, ChatGPT size saniyeler içinde verebilir.

En büyük endişelerden biri de siber suçluların ChatGPT’den güvenlikle ilgili geçici çözümler isteyebileceği ve yazılım geliştiricilerin buna yetişemeyeceği durumlar. ChatGPT’nin sahte versiyonlarının şimdiden internette görülmeye başladığı söyleniyor. Bu nedenle uygulamalar, son derece tehlike arz ediyor ve bu durum siber saldırıları artırabilir.

Siber saldırılara karşı kullanıcıların, URL’yi kontrol ederek programın gerçek bir versiyonu üzerinde çalıştıklarından emin olmaları ve internette istemedikleri bilgileri paylaşmamaları gerekiyor. Open AI konuyla ilgili, “ChatGPT’nin okullarda ya da başka herhangi bir yerde yanıltıcı amaçlarla kullanılmasını istemiyoruz, bu nedenle bu sistem tarafından oluşturulan metinlerin tespit edilmesine yardımcı olacak hafifletici önlemler geliştiriyoruz.” diyor.

Güvenlik raporları, ChatGPT ve diğer AI teknolojilerinin 2023’teki siber saldırı sayısını önemli ölçüde artırabileceği konusunda uyarıyor. ChatGPT aracılığıyla siber suçlular, gerçek insan etkileşimlerinden neredeyse hiç ayırt edilemeyecek şekilde sosyal mühendislik yöntemlerini geliştirebilirler. Bu durum, finansal hesapları ve dijital varlıkları özellikle risk altına sokabilir ve etkilenen kullanıcılar ve kuruluşlar önemli kayıplara uğrayabilir.

Rapor ayrıca ChatGPT’nin yarattığı potansiyel tehdide ilişkin dünya genelinde farklı görüşlerin altını çiziyor. İnsanların yaklaşık %53’ü, en büyük endişenin ChatGPT’nin bilgisayar korsanlarının daha inandırıcı ve ikna edici kimlik avı e-postaları oluşturmasına yardımcı olacağını düşünüyor. Öte yandan, %49’luk bir kesim daha az yetenekli bilgisayar korsanlarının teknik becerilerini geliştirmelerine ve yanlış bilgi yaymalarına olanak sağlayacağına inanıyor.

Bununla birlikte rapor, birçok BT karar vericisinin önümüzdeki iki yıl içinde yapay zeka odaklı siber güvenliğe yatırım yapmayı planladığını ortaya koyuyor. Karar vericilerin %48’i, bu yatırımı 2023 yılı içinde yapmayı planlıyor. Bu durum, imzalara dayalı mevcut siber koruma yöntemlerinin etkisizliğine ilişkin artan endişeleri de yansıtıyor.

Bilgisayar korsanları şu anda ChatGPT ile sistemleri test ediyor, ancak bu yıl boyunca, kötü niyetli amaçlar için kullanma konusunda çok daha yetenekli olmaları bekleniyor. İster daha iyi kötü amaçlı yazılım yazmak için ister becerilerini geliştirmek için kullansınlar, ChatGPT’nin kötü amaçlı kullanımı giderek artan bir endişe kaynağı yaratıyor.

Özetle, rapor ChatGPT teknolojisinin potansiyel faydalarını ve tehlikelerini vurguluyor. Bu teknoloji, birçok avantaj sunarken, siber güvenlik için de önemli bir tehdit oluşturuyor. BT karar vericilerinin bu risklerin farkında olması ve giderek karmaşıklaşan siber saldırılara karşı savunmalarını sağlamak için yapay zeka odaklı siber güvenliğe yatırım yapması gerekiyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir