tarımenflasyonemeklilikötvdövizakpchpmhp
DOLAR
32,3697
EURO
34,9815
ALTIN
2.326,16
BIST
9.090,70
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Az Bulutlu
23°C
İstanbul
23°C
Az Bulutlu
Cumartesi Az Bulutlu
22°C
Pazar Az Bulutlu
22°C
Pazartesi Az Bulutlu
24°C
Salı Az Bulutlu
18°C

AI, ML güvenilirliği ve güvenliği: BlenderBot ve diğer vakalar

Ağustos 2022’nin başlarında piyasaya sürülmesinden bu yana, Meta’nın yapay zeka (AI) odaklı araştırma projesi Blenderbot manşetlere çıkıyor. Bir …

AI, ML güvenilirliği ve güvenliği: BlenderBot ve diğer vakalar
01.09.2022 11:06
0
A+
A-

Ağustos 2022’nin başlarında piyasaya sürülmesinden bu yana, Meta’nın yapay zeka (AI) odaklı araştırma projesi Blenderbot manşetlere çıkıyor. Bir sohbet botu olan Blenderbot’un insanlar, şirketler ayrıca siyaset hakkındaki açıklamaları beklenmedik ayrıca bazen radikal görünüyor. Bu, makine öğrenmesinin (ML) önemli zorluklarından biri ayrıca işlerinde ML kullanan kuruluşların bununla özellikle ilgilenmesi gerekiyor.

Diğer benzer projeler daha önce Blenderbot’un yaşadığına benzer problemle karşı karşıya kaldı. Örneğin Microsoft’un Twitter için hazırladığı sohbet botu Tay ırkçı açıklamalarıyla dikkat çekmişti. Bu, internetten gelen metinler ayrıca görüntüler üzerinde eğitilen makine öğrenimi modellerinin zayıf noktasını yansıtıyor. Çıktılarını inandırıcı kılmak için çok büyük ham veri kümeleri kullanıyorlar, ancak bu tür modeller web üzerinde eğitildikleri takdirde yakaladığı önyargıları davranışlarına yansıtıyorlar.

Şimdiye kadar bu projeler çoğunlukla araştırma ayrıca bilim amacıyla ortaya koyuluyordu. Bununla birlikte kuruluşlar artık dil modellerini müşteri desteği, çeviri, pazarlama metni yazma, metin düzeltme ayrıca benzeri alanlarda kullanıyorlar. Bu modelleri daha az önyargılı hale getirmek için geliştiriciler, eğitim için kullanılan veri kümelerini düzenleyebilirler. Ancak web üzerindeki veri kümeleri mevzu bahis olduğunda bu çok zordur. Yüz kızartıcı hataları önlemek için ilgili belgeleri kaldırmak, modelin bunları öğrenmesini önlemek için belirli kelimeleri veya ifadeleri verinin haricinde tutmak adına önyargılara karşı veriyi filtrelemek gerekir. Diğer bir yaklaşım, modelin şüpheli metin oluşturması durumunda uygun olmayan çıktıları kullanıcılara ulaşmadan filtrelemektir.

Daha geniş açıdan bakıldığında koruma mekanizmaları önyargıların ötesinde herhangi bir ML modeli için gereklidir. Geliştiriciler modeli eğitmek için açık verileri kullanırsa, özel hazırlanmış, hatalı biçimlendirilmiş verilerin saldırganlar tarafınca veri kümesine eklendiği “veri zehirlenmesi” adı verilen tekniğin kurbanı olabilirler. Sonuç olarak model bazı olayları tanımlayamayacak, onları başkalarıyla karıştıracak ayrıca yanlış kararlar verecektir.

Kaspersky Baş Veri Bilimcisi Vladislav Tushkanov, şunları söylüyor: “Çok fazla çaba ayrıca uzmanlık gerektirmesi sebebiyle gerçekte bu tür tehditler nadir olsa da, şirketlerin hala önleyici tedbirler alması gerekiyor. Bu aynı zamanda eğitim modelleri sürecindeki hataları en aza indirmeye yardımcı olacaktır. Öncelikle kuruluşların eğitim için hangi verilerin kullanıldığını ayrıca nereden geldiğini bilmeleri gerekiyor. Ve çeşitlendirilmiş verilerin kullanılması zehirlenmeyi daha da zorlaştırır. Son olarak, modeli devreye almadan önce kapsamlı bir şekilde test etmek ayrıca performansını sürekli olarak izlemek önemlidir.”

Kuruluşlar, makine öğrenimi sistemlerine yönelik tehditler hakkında özel bir bilgilendirme kaynağı olan MITRE ATLAS’a da başvurabilirler. ATLAS ve ML saldırılarında kullanılan bir taktik ayrıca teknik matrisi sağlar.

Kaspersky’de olası güvenlik açıklarını ortaya çıkarmak, hasarı görmek ayrıca bu tür bir saldırı riskinin nasıl azaltılacağını anlamak için siber saldırıları taklit ederek istenmeyen posta önleme ayrıca kötü amaçlı yazılım algılama sistemlerimiz üzerinde belirli testler gerçekleştirdik.

Makine öğrenimi, Kaspersky ürün ayrıca hizmetlerinde tehditlerin tespiti, Kaspersky SOC’de uyarı analizi veya üretim süreci korumasında anormallik tespiti amacıyla yaygın olarak kullanılmaktadır. Kaspersky ürünlerinde makine öğrenimi kullanımı hakkında daha fazla bilgilendirme edinmek için bu sayfayı ziyaret edin.

Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.

Sponsorlu Bağlantılar: - sosyal içerik platformu - ETSY Blog - uygulama fikirleri - vize başvurusu