DecodingTrust araştırması, GPT modelinin güvenilirlik açığını ortaya koydu.

robot
Abstract generation in progress

DecodingTrust Araştırması: GPT Modelinin Güvenilirliğini Değerlendirme

Son günlerde, Illinois Üniversitesi Champaign, Stanford Üniversitesi, California Üniversitesi Berkeley, Yapay Zeka Güvenlik Merkezi ve Microsoft Araştırma Enstitüsü tarafından ortaklaşa yürütülen bir araştırma, büyük dil modelleri (LLMs) güvenilirliğini kapsamlı bir şekilde değerlendiren bir platform yayınladı. "DecodingTrust" adı verilen bu araştırma, GPT modelinin güvenilirliğini kapsamlı bir şekilde değerlendirdi.

Araştırmalar, güvenilirlikle ilgili daha önce açıklanmamış bazı açıklar bulmuştur. Örneğin, GPT modellerinin zararlı ve önyargılı çıktılar üretme olasılığı yüksektir ve ayrıca eğitim verilerinden ve diyalog geçmişinden özel bilgileri sızdırabilir. Standart testlerde GPT-4 genellikle GPT-3.5'ten daha güvenilir olmasına rağmen, kötü niyetli tasarlanmış istemlerle karşılaştığında GPT-4 daha kolay saldırıya uğrayabilir. Bu, GPT-4'ün yanıltıcı talimatları daha katı bir şekilde takip etmesinden kaynaklanıyor olabilir.

Araştırma ekibi, GPT modelini sekiz farklı açıdan kapsamlı bir şekilde değerlendirmiştir; bunlar arasında saldırgan saldırılara karşı dayanıklılık, zararlı içerik ve önyargılar, gizlilik ihlalleri gibi konular bulunmaktadır. Değerlendirme, çeşitli senaryolar, görevler, göstergeler ve veri setleri kullanılarak gerçekleştirilmiştir.

Rekabetçi gösterim açısından, araştırmalar GPT-3.5 ve GPT-4'ün karşıfaktüel örneklerden yanıltılmadığını, ancak bazı durumlarda yanlış tahmin yapmaları için yanıltılabileceklerini bulmuştur. Zararlı içerik ve önyargılar hakkında, her iki GPT modeli normal ipuçları altında çoğu klişe konusu için çok az yanlılık gösterirken, yanıltıcı ipuçları altında önyargılı içerikler üretebilir. GPT-4, bu etkilere karşı GPT-3.5'ten daha hassastır.

Gizlilik koruma açısından, araştırmalar GPT modellerinin eğitim verilerindeki hassas bilgileri, örneğin e-posta adreslerini ifşa edebileceğini ortaya koymuştur. GPT-4, kişisel kimlik bilgilerini koruma konusunda GPT-3.5'ten daha iyi performans göstermektedir, ancak her iki model de belirli türdeki bilgilerin korunmasında oldukça sağlamdır. Ancak, bazı durumlarda GPT-4, GPT-3.5'ten daha fazla gizliliği ifşa etme eğilimindedir.

Bu araştırma, GPT modelinin güvenilirlik değerlendirmesi için kapsamlı bir bakış açısı sunarak bazı potansiyel riskleri ortaya koymaktadır. Araştırma ekibi, bu çalışmanın daha fazla araştırmacının bu alana dikkat etmesini teşvik etmesini ve daha güçlü, daha güvenilir AI modelleri yaratmak için ortak çaba göstermesini umuyor.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 4
  • Share
Comment
0/400
SnapshotDayLaborervip
· 07-07 00:34
Yapay zeka da oltaya düşmekten korkar.
View OriginalReply0
LongTermDreamervip
· 07-07 00:32
Üç yıl sonra kimse bu küçük açıkları umursamayacak, Ayı Piyasası devam edecek, alım yapmaya devam etmeliyiz.
View OriginalReply0
tx_pending_forevervip
· 07-07 00:29
ai de biçimsel olarak özden daha önemli olduğu da söylenebilir.
View OriginalReply0
BanklessAtHeartvip
· 07-07 00:25
Zaten AI'nin güvenilir olmadığını biliyordum.
View OriginalReply0
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)