Yapılan bir araştırma, LLM’lerin kullanıcılar bilgilerini hiç paylaşmasa bile, kullanıcılar hakkında bilgi çıkarımı yapabildiğini gösterdi.
Daha da korkutucu olanı, berbat niyetli şahısların bu sırları öğrenmek için sohbet robotlarını suiistimal edebilecekleri gerçeği. Tek yapmanız gereken, bir amaçtan görünüşte zararsız metin örnekleri toplayarak potansiyel olarak pozisyonunu, işini ve hatta ırkını tespit etmek. Bu çalışma, bize ChatGPT gibisi hizmetlerin daha da güçlü saklılık müdafaalarına muhtaçlık duyduğunu gösteriyor.
ETH Zürih araştırmacıları OpenAI, Meta, Google ve Anthropic’in LLM’lerini inceledi. ChatGPT ve rakipleri, bir kullanıcının pozisyonunu, ırkını, mesleğini ve başka ferdî bilgilerini gerçek bir formda varsayım edebildikleri benzeri örneklere sahip.
Bilim insanları 500’den fazla Reddit profilinden alınan bilgi parçacıklarını kullandı. GPT-4 özel bilgileri %85 ile %95 ortasında bir doğrulukla çıkarabildi.
Örneğin bir LLM, kişinin New York’ta bir restorana yakın bir yerde yaşadığını söyleyen bir metni okuduktan sonra yüksek bir olasılıkla kullanıcının siyahi olduğunu çıkardı. Sohbet robotu restoranın pozisyonunu belirledi ve ırkı belirlemek için o pozisyonun nüfus istatistikleri bilgilerini kullandı.
Google üzere teknoloji devleri, görüldüğü üzere ferdî yapay zeka özellikleri geliştirmeye başladı bile. Örneğin Fitbit uygulamanızla konuşabilecek ve çok sayıda ferdî data noktasını kullanarak son idman performansınızı tahlil etmesini sağlayabileceksiniz.
Ancak çalışmadaki bulgular çok daha kolay bilgi setlerine dayanıyor. Örneğin sıhhat bilgileri üzere, kullanıcının yapay zeka ile açıkça paylaşmayacağı şahsî bilgiler.
Buradaki tasalar, bir teknoloji devinin reklam gelirlerini artırmak için potansiyel olarak LLM’leri kullanmasından daha değerli. Berbat niyetli bireyler kamuya açık LLM modellerini kullanarak bir gaye hakkında potansiyel olarak çıkarımlarda bulunabilir. Bir kişinin ırkını ya da pozisyonunu öğrenebilirler.
Ayrıca konuşmaları yönlendirerek amaçların farkında olmadan şahsî bilgilerini ifşa etmelerini de sağlayabilirler. Saldırganların tek yapması gereken bu bilgileri bir sohbet robotuna aktarmak ve yapay zekanın ne bulacağını izlemek. Misal formda, LLM’ler daha baskıcı rejimler tarafından muhaliflere yaklaşmak için kullanılabilir.
ChatGPT üzere yapay zeka hizmetlerinin, kullanıcı kapalılığı hakkında daha fazla efor göstermesi gerekiyor. Ayrıyeten ChatGPT ve rakiplerinin, rastgele birinin bu tıp şahsî dataları elde etmek için hizmeti berbata kullanmasını önleyecek yerleşik muhafazalara sahip olması lazım.