ChatGPT güvensiz: 2026’da bir chatbot’a söylememeniz gereken 5 şey

Fotoğraf: Açık kaynak Bot “arkadaş olarak” yanıt veriyor gibi görünse bile girdiğiniz bilgiler beklediğinizden farklı şekilde kullanılabilir.

ChatGPT gibi yapay zeka (AI) sohbet robotları, insanların yanıt bulmak, metinler oluşturmak, fikirlere yardımcı olmak ve hatta verileri analiz etmek için kullanmasıyla günlük yaşamın ayrılmaz bir parçası haline geldi. Ancak SlashGear, yapay zeka ile ne kadar çok etkileşime girersek, onun kişisel veya gizli verileriniz için güvenli bir depo olmadığını hatırlamanın o kadar önemli olduğunu yazıyor.

ChatGPT günde yaklaşık 2,5 milyar isteğe yanıt verir ve yerleşik güvenlik mekanizmalarına rağmen girdiğiniz verilerin sızıntısı ve kontrolsüz kullanımı konusunda gerçek riskler vardır. Teknoloji sürekli gelişiyor ancak yine de dikkatli olmak gerekiyor

İşte ChatGPT’ye veya halka açık herhangi bir akıllı chatbot’a asla söylememeniz gereken beş şey.

Kişisel bilgiler

Birçok kullanıcı, örneğin bir özgeçmiş oluşturmak için bilmeden tam adını, adreslerini, belge numaralarını ve iletişim bilgilerini girer. Bu, model veritabanına bir sızıntı veya saldırganın erişimi durumunda ciddi sonuçlara yol açabilir.

Bot “arkadaş gibi” yanıt veriyor gibi görünse bile bu tür bilgiler sistem tarafından işlenebilir ve beklediğinizden farklı şekilde kullanılabilir.

Finansal ayrıntılar

ChatGPT’den bir mali danışman olması ve aylık bir bütçe oluşturmaya yardımcı olması veya hatta tüm emeklilik stratejisini geliştirmesi istenebilir, ancak hesaplar, kredi kartları, yatırımlar veya vergilerle ilgili belirli ayrıntılar AI sohbetine girilmemelidir

Uzmanlar, yapay zekaya veri sağladıktan sonra onların gelecekteki kaderini bilmenin imkansız olduğunu belirtiyor. Finansal bilgilerin girilmesi, dolandırıcılık planlarından kişisel veri sızıntılarına, kimlik avı saldırılarından cihazlara fidye yazılımı bulaşmasına kadar ciddi riskler oluşturabilir.

Tıbbi veriler

Yakın zamanda yapılan bir araştırmaya göre, yaklaşık altı yetişkinden biri semptomların açıklığa kavuşturulması veya tedavisi için ayda en az bir kez ChatGPT’ye başvuruyor. Gençlerde ise bu rakam ayda dörtte bire çıkıyor.

Uzmanlar, bu işlemin son derece dikkatli bir şekilde yapılması ve bu kişinin bir doktor olmadığı ve bir uzmana danışmanın yerine geçmediği anlayışıyla yapılması çağrısında bulunuyor. Finansal bilgilerde olduğu gibi, bu tür veriler yapay zekaya sağlandıktan sonra gelecekteki kaderini bilmenin imkansız olması sorunu daha da kötüleştiriyor.

İşle ilgili malzemeler

Şirket belgeleri, raporları ve stratejileri – buna işveren, müşteri veya devam eden bir projeyle ilgili olan ve kamuya açıklanmasına izin verilmeyen her şey dahildir.

Yayında belirtildiği gibi yapay zeka, metinleri düzenlemek veya belgeleri özetlemek için uygun bir araç gibi görünebilir ancak aynı zamanda gereksiz risklere de yol açabilir.

Herhangi bir yasa dışı istek

Bu sadece güvenlik nedeniyle değil aynı zamanda yasal nedenlerden dolayı da kaçınılması gereken bir şeydir. Platformların yasalara uyması gerektiği ve kolluk kuvvetleri tarafından talep edildiğinde verileri ifşa edebileceği için suçların, dolandırıcılığın veya manipülasyonun nasıl işleneceğine ilişkin sorular hizmetin engellenmesine ve hatta sorumluluğa yol açabilir.

OpenAI başkanı Sam Altman ayrıca ChatGPT ile yapılan yazışmaların, gerçek bir uzmanla yapılan görüşmelerle aynı şekilde yasalarca korunmadığı ve bir dava durumunda geliştiricilerin mahkeme kararıyla kullanıcı yazışmaları sağlamalarının gerekebileceği konusunda uyarıyor.

Bu nedenle, özellikle kişisel veya profesyonel yaşamınızla ilgiliyse, yapay zekaya söylediklerinize her zaman dikkat edin.

Yorumlar:

Share to friends
Rating
( No ratings yet )
Pratik İpuçları ve Hayat Hileleri