Güney Kore merkezli teknoloji devi Samsung, hassas verilerinin ChatGPT ile paylaşılmasıyla gündeme geldi. Şirket çalışanları, önemli bilgileri yapay zeka chatbot’u ile paylaştı.
Yapay zeka destekli chatbot’lar gün geçtikçe hayatımıza daha fazla entegre oluyor. İlk zamanlarda temel ve basit şeylere cevap verirken şimdi belgelerdeki yanlışları gösterebilecek düzeyde ilerledi. ChatGPT de bunu en iyi şekilde yaparken kendini geliştirmek için gelen sorular ve belgelerden yararlanıyor.
ChatGPT’nin kendini nasıl geliştirdiğini bilmeyen Samsung çalışanları, şirketin özel belgelerini ChatGPT üzerinden düzenlerken sızıntıya neden oldu. Samsung’un yarı iletken bölümü, mühendislerin ChatGPT’yi kullanmasına izin vermeye başladıktan kısa bir süre sonra, çalışanlar ona en az üç kez gizli bilgiler sızdırdı.
Bir çalışanın, chatbot’tan hassas veritabanı kaynak kodunu hatalara karşı kontrol etmesini istediği, başka bir kod optimizasyonu talep ettiği ve üçüncü bir çalışanın kayıtlı bir toplantıyı ChatGPT’ye besleyip dakikalar oluşturmasını istediği bildirildi.
Samsung’un güvenlik hatalarını öğrendikten sonra, çalışanların ChatGPT istemlerinin uzunluğunu 1 kilobayt veya 1024 karakterlik metinle sınırlayarak gelecekteki gafların kapsamını sınırlamaya çalıştığını öne sürüyor. Şirketin ayrıca söz konusu üç çalışanı araştırdığı ve benzer aksilikleri önlemek için kendi chatbot’unu oluşturduğu söyleniyor.
ChatGPT’nin veri politikası, kullanıcılar açıkça devre dışı bırakmadıkça modellerini eğitmek için istemlerini kullandığını belirtiyor. Eğer siz de ChatGPT kullanıyorsanız ve şirket bilgilerini kontrol ettirmek istiyorsanız hassaslık konusunda dikkatli olmanızda fayda var.