Yapay zekayı yasaklamak çözüm değil; yönetmeyi öğrenmek çözümdür.
Yapay Zeka Güvenliği ve Yönetişimi Eğitimi; ChatGPT, Copilot, Gemini ve dahili LLM çözümlerini kullanan kurumların karşılaştığı veri sızıntısı, prompt injection, model zehirleme, halüsinasyon, telif ihlali ve gölge yapay zeka risklerini kapsamlı biçimde ele alır. Katılımcılar, kurumlarında yapay zekanın güvenli, denetlenebilir ve mevzuata uygun şekilde nasıl kullanılacağını uygulamalı olarak öğrenir.
Yapay zeka, klasik bilgi güvenliği kontrolleriyle güvenceye alınamayan yepyeni bir saldırı yüzeyi yaratır.
Pek çok kurumda yapay zeka konusu hâlâ “ChatGPT’yi yasaklayalım mı, yasaklamayalım mı” tartışmasına sıkışmıştır. Oysa çalışanlar müşteri verisini, sözleşme metnini, kaynak kodu, finansal raporu ya da kişisel veriyi modellerle paylaştığında risk çoktan oluşmuştur. Bu risk yalnızca veri sızıntısıyla sınırlı değildir: model halüsinasyonları yanlış kararlara, prompt injection saldırıları yetkisiz işlemlere, eğitim verisindeki taraflılık hukuki yaptırımlara yol açabilir.
Yapay Zeka Güvenliği ve Yönetişimi Eğitimi; bu yeni saldırı yüzeyini OWASP LLM Top 10, NIST AI RMF, ISO/IEC 42001 ve EU AI Act çerçevelerini kullanarak yapılandırır. Eğitim, hem klasik LLM araçlarının (ChatGPT, Copilot, Gemini) güvenli kullanımını hem de kurum içinde geliştirilen RAG ve agentic AI sistemlerinin tasarım güvenliğini kapsar. Her başlık, gerçek vaka analizleri ve kurumsal politika örnekleriyle desteklenir.
Katılımcılar yapay zeka risklerini OWASP, NIST ve ISO çerçevelerinde birlikte değerlendirmeyi öğrenir.
Eğitim, akademik bilgiyi uygulanabilir bir AI güvenlik çerçevesine dönüştürür. Her başlık, gerçek prompt injection saldırıları, halüsinasyon vakaları ve kurumsal politika örnekleriyle pekiştirilir.
OWASP LLM Top 10’u sade bir dille açıklar.
Prompt injection, hassas bilgi açığa çıkması, eğitim verisi zehirlenmesi, model çalmadan model hizmet kesintisine kadar tüm risk kategorileri örneklerle anlatılır.
- LLM01 Prompt Injection
- LLM02 Hassas Bilgi Açığa Çıkması
- LLM03 Tedarik Zinciri Riski
- LLM04 Veri ve Model Zehirleme
Onaysız yapay zeka kullanımını kontrol altına alır.
Çalışanların kurum onayı olmadan kullandığı yapay zeka araçlarını tespit etme, sınıflandırma ve onaylı alternatiflere yönlendirme yöntemleri uygulamalı işlenir.
- Shadow AI tespit yöntemleri
- Kabul edilebilir kullanım politikası
- Onaylı araç envanteri
Hassas verinin modele kaçışını engeller.
Müşteri verisi, kaynak kod, sözleşme metni veya finansal raporun yapay zeka istemlerine sızması nasıl engellenir; DLP, maskeleme ve kurumsal LLM mimarisi yöntemleriyle ele alınır.
- İstem içeriği denetimi
- Veri sınıflandırma ve maskeleme
- Kurumsal sürüm tercihi
İstem manipülasyonu saldırılarını anlatır.
Doğrudan ve dolaylı prompt injection, jailbreak teknikleri, dış belge ve URL üzerinden gelen saldırılar canlı örneklerle gösterilir; savunma teknikleri çalışılır.
- Doğrudan ve dolaylı injection
- Jailbreak teknikleri
- Sistem istemi sertleştirme
Yanlış çıktıyı erkenden tespit eder.
Modellerin neden gerçek olmayan bilgi ürettiği, halüsinasyonun hangi senaryolarda yüksek risk oluşturduğu ve insan denetimi disiplinin nasıl kurulacağı işlenir.
- Halüsinasyon nedenleri
- Risk eşiği belirleme
- İnsan-döngüde doğrulama
ISO 42001, NIST AI RMF ve EU AI Act’i birleştirir.
Yapay zeka yönetim sistemi gereksinimleri, risk yönetim çerçevesi ve mevzuat yükümlülükleri; mevcut ISO 27001 sistemine nasıl entegre edileceği uygulamalı çalışılır.
- ISO 42001 yapısı
- NIST AI RMF fonksiyonları
- EU AI Act risk sınıfları
Risk farkındalığından kuruma özel yapay zeka politikasına uzanan kapsamlı program.
Program; kurumun yapay zeka olgunluğuna ve hedef takvimine göre bir gün bilgilendirme, iki gün uygulayıcı veya üç gün uzman yetkinliği biçiminde uyarlanabilir.
Risk haritası, mimari kararlar ve yönetişim çerçeveleri aynı programda buluşur.
Eğitim, gerçek saldırı senaryoları üzerinden öğrenmeyi kalıcı hale getirir.
Katılımcılar yalnızca dinlemez; canlı prompt injection denemeleri yapar, halüsinasyon vakası analiz eder, kurum politikası yazar, AI risk envanteri çıkarır ve kendi kurumları için yol haritası hazırlar.
Yapay zeka kararına dahil olan tüm kritik roller için uyarlanabilir eğitim.
Eğitim sonunda kurumun yapay zeka olgunluğu ölçülebilir ve sürdürülebilir hale gelir.
Katılımcı kazanımları
- OWASP LLM Top 10’u kurum içinde uygulayabilme
- Shadow AI tespiti ve yönetim çerçevesi kurabilme
- Veri sızıntısı kontrollerini yapay zekaya uyarlayabilme
- Prompt injection saldırılarını tanıyıp savunma kurabilme
- Halüsinasyon riskini değerlendirip insan denetimi tasarlayabilme
- ISO 42001, NIST AI RMF ve EU AI Act gereksinimlerini ayırt edebilme
- Kurumsal AI mimari tercihlerini bilinçli yapabilme
Kurum çıktıları
- Yapay zeka kabul edilebilir kullanım politikası şablonu
- Kurumsal AI araç envanteri ve risk seviyesi tablosu
- OWASP LLM Top 10 kontrol kütüphanesi
- Shadow AI tespit ve yanıt prosedürü
- Prompt injection test senaryoları
- ISO 42001 – ISO 27001 entegrasyon haritası
- Kuruma özel 90 günlük AI güvenlik yol haritası
Eğitim hakkında bilmek istediğiniz her şey tek bakışta.
Süre, format, katılımcı sayısı, sertifika, içerik kapsamı ve teslim edilen materyaller netleştirilmiştir. Kuruma özel programlarda parametreler ihtiyaca göre uyarlanır.
| Eğitim Adı | Yapay Zeka Güvenliği ve Yönetişimi Eğitimi |
|---|---|
| Süre | 2 gün (14 saat). Kuruma göre 1 gün bilgilendirme veya 3 gün derinlemesine uzman programı olarak uyarlanabilir. |
| Eğitim Formatı | Yüz Yüze (kurum lokasyonu) Online Canlı (Zoom / Teams) Hibrit |
| Eğitim Başlıkları | Yapay zeka temelleri ve tehdit yüzeyi · OWASP LLM Top 10 · Veri sızıntısı ve Shadow AI yönetimi · Prompt injection ve AI red teaming · Halüsinasyon yönetimi · Kurumsal AI mimari kararları · ISO/IEC 42001 · NIST AI RMF · EU AI Act · KVKK uyumu · Politika ve yol haritası tasarımı. |
| Hedef Kitle | CISO, bilgi güvenliği yöneticileri, AI ve veri bilimi ekipleri, yazılım geliştirme ekipleri, risk ve uyum birimleri, iç denetim, hukuk ve KVKK ekipleri, üst yönetim. |
| Ön Koşul | Bilgi teknolojileri veya bilgi güvenliği konularında temel düzeyde bilgi tavsiye edilir; teknik geçmiş zorunlu değildir. |
| Katılımcı Sayısı | Optimum verim için 8 – 20 kişi. Kuruma özel programlarda en fazla 25 kişiye kadar grup açılabilir. |
| Sertifika | Katılım Sertifikası Eğitim tamamlandığında Secure Fors tarafından imzalı dijital katılım sertifikası verilir. Doğrulanabilir QR kod içerir. |
| Eğitim Materyali | Sunum dosyası (PDF) · Atölye çalışma defteri · OWASP LLM Top 10 kontrol kütüphanesi · Yapay zeka kabul edilebilir kullanım politikası şablonu · Kurumsal AI risk envanteri şablonu · ISO 42001 – ISO 27001 entegrasyon haritası · 90 günlük yol haritası şablonu. |
| Uygulama | Canlı prompt injection denemesi, halüsinasyon vaka analizi, kurumsal AI risk haritası çıkarma, kabul edilebilir kullanım politikası yazımı ve 90 günlük yol haritası tasarımı atölyeleri içerir. |
| Eğitmen | ISO 27001 Lead Auditor, CEH ve ISO 42001 alanında deneyimli kıdemli danışman. Sahada uygulama deneyimi olan, akademik değil pratik odaklı eğitim. |
| Fiyatlandırma | Kuruma özel teklif. Katılımcı sayısı, format (yüz yüze / online), program süresi ve özelleştirme ihtiyacına göre fiyat oluşturulur. |
Yapay zekayı yasaklamak değil, yönetmek; kurumunuzu hem üretken hem güvende tutar.
OWASP LLM Top 10, ISO 42001 ve EU AI Act çerçevelerini bir araya getiren, kurumunuzun yapay zeka olgunluğuna göre uyarlanan eğitim programını planlayın.
Referanslar: OWASP Top 10 for Large Language Model Applications, ISO/IEC 42001 Yapay Zeka Yönetim Sistemi Standardı, ISO/IEC 23894 Yapay Zeka Risk Yönetimi Rehberi, NIST AI Risk Management Framework, Avrupa Birliği Yapay Zeka Tüzüğü (EU AI Act), KVKK Yapay Zeka Alanında Kişisel Verilerin Korunmasına Dair Tavsiyeler.