Yapay Zeka Güvenliği Eğitimi

YAPAY ZEKA GÜVENLİĞİ VE YÖNETİŞİMİ EĞİTİMİ

Yapay zekayı yasaklamak çözüm değil; yönetmeyi öğrenmek çözümdür.

Yapay Zeka Güvenliği ve Yönetişimi Eğitimi; ChatGPT, Copilot, Gemini ve dahili LLM çözümlerini kullanan kurumların karşılaştığı veri sızıntısı, prompt injection, model zehirleme, halüsinasyon, telif ihlali ve gölge yapay zeka risklerini kapsamlı biçimde ele alır. Katılımcılar, kurumlarında yapay zekanın güvenli, denetlenebilir ve mevzuata uygun şekilde nasıl kullanılacağını uygulamalı olarak öğrenir.

OWASP LLM Top 10 ISO/IEC 42001 NIST AI RMF EU AI Act Shadow AI Yönetimi AI Red Teaming
Kurumsal AI Risk Panosu
RİSK + KONTROL
Veri sızıntısı
kritik
Shadow AI
yüksek
Prompt injection
orta
Model halüsinasyonu
orta
LLM büyük dil modeli temelli risk yüzeyi
RAG kurumsal veri ile beslenen cevap üretimi
DLP veri kaybı önleme entegrasyonu
42001 Yapay zeka yönetim sistemi için yayımlanan, sertifikası alınabilen uluslararası standart.
LLM01 OWASP LLM Top 10 listesinin birinci sırasındaki risk: prompt injection saldırıları.
EU AI Avrupa Birliği Yapay Zeka Tüzüğü, risk seviyesine göre yükümlülük getiren ilk kapsamlı düzenlemedir.
SHADOW Çalışanların kurum onayı dışında kullandığı yapay zeka araçları en hızlı büyüyen veri sızıntı kanalıdır.
EĞİTİMİN AMACI

Yapay zeka, klasik bilgi güvenliği kontrolleriyle güvenceye alınamayan yepyeni bir saldırı yüzeyi yaratır.

Pek çok kurumda yapay zeka konusu hâlâ “ChatGPT’yi yasaklayalım mı, yasaklamayalım mı” tartışmasına sıkışmıştır. Oysa çalışanlar müşteri verisini, sözleşme metnini, kaynak kodu, finansal raporu ya da kişisel veriyi modellerle paylaştığında risk çoktan oluşmuştur. Bu risk yalnızca veri sızıntısıyla sınırlı değildir: model halüsinasyonları yanlış kararlara, prompt injection saldırıları yetkisiz işlemlere, eğitim verisindeki taraflılık hukuki yaptırımlara yol açabilir.

Yapay Zeka Güvenliği ve Yönetişimi Eğitimi; bu yeni saldırı yüzeyini OWASP LLM Top 10, NIST AI RMF, ISO/IEC 42001 ve EU AI Act çerçevelerini kullanarak yapılandırır. Eğitim, hem klasik LLM araçlarının (ChatGPT, Copilot, Gemini) güvenli kullanımını hem de kurum içinde geliştirilen RAG ve agentic AI sistemlerinin tasarım güvenliğini kapsar. Her başlık, gerçek vaka analizleri ve kurumsal politika örnekleriyle desteklenir.

Amaç: Katılımcıların yapay zeka risk türlerini tanıması, OWASP LLM Top 10’u uygulayabilmesi, kurumsal AI politika ve kabul edilebilir kullanım kurallarını yazabilmesi, ISO 42001 yönetim sistemini kavraması ve mevzuatla uyum stratejisini kurabilmesidir.
Yasak çözüm değildir; çalışanlar yine de kullanır. Kurum tarafından erişimi kısıtlanan yapay zeka araçları, çalışanlar tarafından kişisel hesaplar veya kişisel cihazlar üzerinden kullanılmaya devam eder. Bu durum, kontrolü tamamen ortadan kaldırarak gölge yapay zeka riskini büyütür.
Klasik DLP ve güvenlik kontrolleri tek başına yetersizdir. Veri kaybı önleme çözümleri, yapay zeka istemleri içinde gizlenen hassas bilgiyi her zaman yakalayamaz. Çalışanın bir cümleyi paraflayarak modele yazması bile, eğitim verisine sızmasına yol açabilecek bir paylaşımdır.
Yapay zeka çıktıları gerçek değildir; doğrulama gerektirir. Modeller halüsinasyon yapar, gerçek olmayan kaynaklar uydurur, mevzuatı yanlış yorumlar. Çıktıların hukuki karar, finansal işlem veya müşteri yanıtı olarak kullanılmadan önce insan denetiminden geçmesi disiplin haline getirilmelidir.
Mevzuat hızlandı; uyum artık seçenek değil. EU AI Act, ISO 42001, KVKK ve sektörel düzenlemeler yapay zeka kullanımına somut yükümlülükler getirir. Bu yükümlülükleri kurumun mevcut bilgi güvenliği yönetim sistemine entegre etmek, eğitimin temel kazanımlarındandır.
EĞİTİM KAZANIMLARI

Katılımcılar yapay zeka risklerini OWASP, NIST ve ISO çerçevelerinde birlikte değerlendirmeyi öğrenir.

Eğitim, akademik bilgiyi uygulanabilir bir AI güvenlik çerçevesine dönüştürür. Her başlık, gerçek prompt injection saldırıları, halüsinasyon vakaları ve kurumsal politika örnekleriyle pekiştirilir.

SHADOW AI

Onaysız yapay zeka kullanımını kontrol altına alır.

Çalışanların kurum onayı olmadan kullandığı yapay zeka araçlarını tespit etme, sınıflandırma ve onaylı alternatiflere yönlendirme yöntemleri uygulamalı işlenir.

  • Shadow AI tespit yöntemleri
  • Kabul edilebilir kullanım politikası
  • Onaylı araç envanteri
VERİ SIZINTISI

Hassas verinin modele kaçışını engeller.

Müşteri verisi, kaynak kod, sözleşme metni veya finansal raporun yapay zeka istemlerine sızması nasıl engellenir; DLP, maskeleme ve kurumsal LLM mimarisi yöntemleriyle ele alınır.

  • İstem içeriği denetimi
  • Veri sınıflandırma ve maskeleme
  • Kurumsal sürüm tercihi
PROMPT INJECTION

İstem manipülasyonu saldırılarını anlatır.

Doğrudan ve dolaylı prompt injection, jailbreak teknikleri, dış belge ve URL üzerinden gelen saldırılar canlı örneklerle gösterilir; savunma teknikleri çalışılır.

  • Doğrudan ve dolaylı injection
  • Jailbreak teknikleri
  • Sistem istemi sertleştirme
HALÜSİNASYON

Yanlış çıktıyı erkenden tespit eder.

Modellerin neden gerçek olmayan bilgi ürettiği, halüsinasyonun hangi senaryolarda yüksek risk oluşturduğu ve insan denetimi disiplinin nasıl kurulacağı işlenir.

  • Halüsinasyon nedenleri
  • Risk eşiği belirleme
  • İnsan-döngüde doğrulama
YÖNETİŞİM

ISO 42001, NIST AI RMF ve EU AI Act’i birleştirir.

Yapay zeka yönetim sistemi gereksinimleri, risk yönetim çerçevesi ve mevzuat yükümlülükleri; mevcut ISO 27001 sistemine nasıl entegre edileceği uygulamalı çalışılır.

  • ISO 42001 yapısı
  • NIST AI RMF fonksiyonları
  • EU AI Act risk sınıfları
EĞİTİM AKIŞI

Risk farkındalığından kuruma özel yapay zeka politikasına uzanan kapsamlı program.

Program; kurumun yapay zeka olgunluğuna ve hedef takvimine göre bir gün bilgilendirme, iki gün uygulayıcı veya üç gün uzman yetkinliği biçiminde uyarlanabilir.

01 Yapay zeka neden farklı bir disiplin Klasik yazılım, makine öğrenmesi ve üretken yapay zeka arasındaki farklar; gerçek vaka analizleriyle açıklanır.
02 OWASP LLM Top 10 risk haritası Onuncu listenin tamamı somut saldırı örnekleri ve canlı demo ile birlikte tek tek incelenir.
03 Shadow AI ve veri sızıntısı Onaysız yapay zeka araçlarının tespiti, sınıflandırılması ve kurum tarafından onaylı alternatiflere yönlendirilmesi planlanır.
04 Prompt injection ve jailbreak Doğrudan ve dolaylı injection senaryoları canlı uygulanır; sistem istemi sertleştirme teknikleri öğretilir.
05 Kurumsal AI mimari kararları Tüketici sürümü, kurumsal sürüm, özel bulut, RAG ve şirket içi LLM seçenekleri arasında karar matrisi kurulur.
06 Yönetişim çerçeveleri ISO 42001, NIST AI RMF ve EU AI Act gereksinimleri mevcut ISO 27001 sistemine entegre edilir.
07 AI red teaming ve test Modellerin saldırgan bakış açısıyla test edilmesi, saldırı kütüphanesi tasarımı ve bulgu raporlama yöntemleri çalışılır.
08 Politika, eğitim ve yol haritası Kabul edilebilir kullanım politikası yazımı, çalışan eğitimi planlaması ve kuruma özel 90 günlük AI güvenlik yol haritası tasarlanır.
EĞİTİM MODÜLLERİ

Risk haritası, mimari kararlar ve yönetişim çerçeveleri aynı programda buluşur.

M1
Yapay zeka temelleri ve tehdit yüzeyi Üretken yapay zeka, büyük dil modelleri, RAG ve agentic AI kavramları; kurumsal kullanım senaryoları ve yarattığı yeni saldırı yüzeyi anlatılır.
M2
OWASP LLM Top 10 derinlemesine On riskin tamamı; gerçek saldırı örnekleri, kurumsal etki senaryoları ve önerilen kontroller ile birlikte ayrıntılı işlenir.
M3
Veri sızıntısı ve Shadow AI yönetimi Onaysız araç tespiti, kabul edilebilir kullanım politikası, kurumsal sürüm tercihi, DLP entegrasyonu ve istem denetim mimarisi birlikte tasarlanır.
M4
Prompt injection ve AI red teaming Doğrudan ve dolaylı injection, jailbreak, sistem istemi manipülasyonu, saldırı kütüphanesi ve red teaming raporlaması uygulamalı çalışılır.
M5
Yönetişim: ISO 42001, NIST AI RMF, EU AI Act Standart ve mevzuat gereksinimleri sade bir dille; mevcut ISO 27001 ile entegrasyon, ortak ve farklı yönler, sertifikasyon yol haritası işlenir.
M6
Politika, eğitim ve yol haritası Yapay zeka kabul edilebilir kullanım politikası, çalışan eğitim planı, AI komitesi yapısı, izleme metrikleri ve 90 günlük yol haritası birlikte hazırlanır.
UYGULAMALI ATÖLYELER

Eğitim, gerçek saldırı senaryoları üzerinden öğrenmeyi kalıcı hale getirir.

Katılımcılar yalnızca dinlemez; canlı prompt injection denemeleri yapar, halüsinasyon vakası analiz eder, kurum politikası yazar, AI risk envanteri çıkarır ve kendi kurumları için yol haritası hazırlar.

CANLI ATÖLYE Prompt injection denemesi Eğitmen rehberliğinde gerçek bir LLM üzerinde sistem istemini bypass etme denemesi yapılır; başarılı ve başarısız teknikler birlikte değerlendirilir.
VAKA ANALİZİ Halüsinasyon kararı Bir avukatın LLM çıktısına dayanarak hazırladığı dilekçenin uydurma içtihat içermesi vakası; risk noktaları ve önleyici kontroller analiz edilir.
RİSK ENVANTERİ Kurumsal AI haritası Katılımcı kurumun kullandığı tüm yapay zeka araçları çıkarılır; her biri için risk seviyesi, sahibi ve kontrol önerileri tabloya işlenir.
POLİTİKA YAZIMI Kabul edilebilir kullanım Kurumun büyüklüğü ve sektörüne göre uyarlanmış yapay zeka kabul edilebilir kullanım politikası şablonu birlikte doldurulur.
MİMARİ KARARI Tüketici mi kurumsal mı Tüketici sürümü, kurumsal sürüm, özel bulut ve şirket içi LLM seçenekleri maliyet, güvenlik, mevzuat ve performans ekseninde karşılaştırılır.
YOL HARİTASI 90 günlük AI güvenlik planı Katılımcı kurumlar için olgunluk tespiti, hızlı kazanımlar ve ISO 42001 sertifikasyonuna giden adımlardan oluşan yol haritası çıkarılır.
KİMLER KATILMALI

Yapay zeka kararına dahil olan tüm kritik roller için uyarlanabilir eğitim.

Bilgi Güvenliği Yöneticileri
CISO ve CIO Ekipleri
AI ve Veri Bilimi Ekipleri
Yazılım Geliştirme Ekipleri
Risk ve Uyum Birimleri
İç Denetim
KVKK ve Hukuk
Üst Yönetim ve Yönetim Kurulu
ÇIKTILAR

Eğitim sonunda kurumun yapay zeka olgunluğu ölçülebilir ve sürdürülebilir hale gelir.

Katılımcı kazanımları

  • OWASP LLM Top 10’u kurum içinde uygulayabilme
  • Shadow AI tespiti ve yönetim çerçevesi kurabilme
  • Veri sızıntısı kontrollerini yapay zekaya uyarlayabilme
  • Prompt injection saldırılarını tanıyıp savunma kurabilme
  • Halüsinasyon riskini değerlendirip insan denetimi tasarlayabilme
  • ISO 42001, NIST AI RMF ve EU AI Act gereksinimlerini ayırt edebilme
  • Kurumsal AI mimari tercihlerini bilinçli yapabilme

Kurum çıktıları

  • Yapay zeka kabul edilebilir kullanım politikası şablonu
  • Kurumsal AI araç envanteri ve risk seviyesi tablosu
  • OWASP LLM Top 10 kontrol kütüphanesi
  • Shadow AI tespit ve yanıt prosedürü
  • Prompt injection test senaryoları
  • ISO 42001 – ISO 27001 entegrasyon haritası
  • Kuruma özel 90 günlük AI güvenlik yol haritası
EĞİTİM KÜNYESİ

Eğitim hakkında bilmek istediğiniz her şey tek bakışta.

Süre, format, katılımcı sayısı, sertifika, içerik kapsamı ve teslim edilen materyaller netleştirilmiştir. Kuruma özel programlarda parametreler ihtiyaca göre uyarlanır.

Eğitim Süresi 2 Gün / 14 Saat Kuruma özel programlarda 1 gün bilgilendirme veya 3 gün uzman seçeneği.
Format Yüz Yüze veya Online Kurum lokasyonunda sınıf eğitimi, online canlı oturum veya hibrit yapı.
Sertifika Katılım Sertifikası Eğitimi tamamlayan tüm katılımcılara Secure Fors imzalı dijital sertifika.
Dil Türkçe Talep durumunda İngilizce eğitim ve materyal sunumu.
Eğitim AdıYapay Zeka Güvenliği ve Yönetişimi Eğitimi
Süre2 gün (14 saat). Kuruma göre 1 gün bilgilendirme veya 3 gün derinlemesine uzman programı olarak uyarlanabilir.
Eğitim Formatı Yüz Yüze (kurum lokasyonu) Online Canlı (Zoom / Teams) Hibrit
Eğitim Başlıkları Yapay zeka temelleri ve tehdit yüzeyi · OWASP LLM Top 10 · Veri sızıntısı ve Shadow AI yönetimi · Prompt injection ve AI red teaming · Halüsinasyon yönetimi · Kurumsal AI mimari kararları · ISO/IEC 42001 · NIST AI RMF · EU AI Act · KVKK uyumu · Politika ve yol haritası tasarımı.
Hedef KitleCISO, bilgi güvenliği yöneticileri, AI ve veri bilimi ekipleri, yazılım geliştirme ekipleri, risk ve uyum birimleri, iç denetim, hukuk ve KVKK ekipleri, üst yönetim.
Ön KoşulBilgi teknolojileri veya bilgi güvenliği konularında temel düzeyde bilgi tavsiye edilir; teknik geçmiş zorunlu değildir.
Katılımcı SayısıOptimum verim için 8 – 20 kişi. Kuruma özel programlarda en fazla 25 kişiye kadar grup açılabilir.
Sertifika Katılım Sertifikası Eğitim tamamlandığında Secure Fors tarafından imzalı dijital katılım sertifikası verilir. Doğrulanabilir QR kod içerir.
Eğitim Materyali Sunum dosyası (PDF) · Atölye çalışma defteri · OWASP LLM Top 10 kontrol kütüphanesi · Yapay zeka kabul edilebilir kullanım politikası şablonu · Kurumsal AI risk envanteri şablonu · ISO 42001 – ISO 27001 entegrasyon haritası · 90 günlük yol haritası şablonu.
UygulamaCanlı prompt injection denemesi, halüsinasyon vaka analizi, kurumsal AI risk haritası çıkarma, kabul edilebilir kullanım politikası yazımı ve 90 günlük yol haritası tasarımı atölyeleri içerir.
EğitmenISO 27001 Lead Auditor, CEH ve ISO 42001 alanında deneyimli kıdemli danışman. Sahada uygulama deneyimi olan, akademik değil pratik odaklı eğitim.
FiyatlandırmaKuruma özel teklif. Katılımcı sayısı, format (yüz yüze / online), program süresi ve özelleştirme ihtiyacına göre fiyat oluşturulur.

Yapay zekayı yasaklamak değil, yönetmek; kurumunuzu hem üretken hem güvende tutar.

OWASP LLM Top 10, ISO 42001 ve EU AI Act çerçevelerini bir araya getiren, kurumunuzun yapay zeka olgunluğuna göre uyarlanan eğitim programını planlayın.

Referanslar: OWASP Top 10 for Large Language Model Applications, ISO/IEC 42001 Yapay Zeka Yönetim Sistemi Standardı, ISO/IEC 23894 Yapay Zeka Risk Yönetimi Rehberi, NIST AI Risk Management Framework, Avrupa Birliği Yapay Zeka Tüzüğü (EU AI Act), KVKK Yapay Zeka Alanında Kişisel Verilerin Korunmasına Dair Tavsiyeler.