Künstliche Intelligenz in der IT-Sicherheit: Chancen und Risiken für Unternehmen
Termine
Preise
kostenlos
Künstliche Intelligenz erhält immer mehr Einzug in Softwarelösungen der IT-Sicherheit und bietet Chancen, manuelle Prozesse in der Cyberabwehr zu automatisieren. Gleichzeitig wird Künstliche Intelligenz auch auf der Angreifer-Seite zunehmend verwendet. In unserer Veranstaltung erhalten Sie durch zwei Expert*innen praktische Tipps und Impulse, worauf Sie bei der Auswahl von IT-Security Lösungen und beim Einsatz von Large Language Models in Ihrem Unternehmen achten sollten.
Agenda
15.00 Uhr Begrüßung durch Dr. Jöran Wrana, Leiter von KI.WI - dem KI-Netzwerk der Wirtschaftsregion Hannover
15.05 Uhr: Sebastian Horzela: „KI in der Cyber Sicherheit - was geht, was geht nicht?“
15.45 Uhr: Dr. Alexander Krause: „LLMs sicher einsetzen – Angriffsvektoren, Risiken und Best Practices für Unternehmen“
16.25 – 17.30 Uhr Networking und Ausklang
Zielgruppe
Geschäftsführungen von kleinen und mittleren Unternehmen sowie IT-Security- / IT- / IS-Verantwortliche aus Unternehmen, die IT-Security Lösungen anwenden.
Hinweis: Anbieter von IT- und IT-Security-Dienstleistungen und dazugehörigen Softwarelösungen werden bei der Anmeldung nachrangig behandelt.
Inhalte
Vortrag 1: „KI in der Cyber Sicherheit - was geht, was geht nicht?“
Cyberangriffe werden durch AI schneller, automatisierter und schwerer zu erkennen – und genau deshalb verändert sich gerade die gesamte Sicherheitsarchitektur von Unternehmen. Von automatisierter Schwachstellenausnutzung über Angriffe auf LLMs bis hin zu neuen Ansätzen wie AI-gestützten Security Operations Centern und automatisierter ISO-Compliance entstehen völlig neue Spielregeln. Dieser Vortrag zeigt Unternehmern, welche Entwicklungen gerade wirklich relevant sind – und wie sie ihr Unternehmen darauf vorbereiten.
Vortrag 2: LLMs sicher einsetzen – Angriffsvektoren, Risiken und Best Practices für Unternehmen
Große Sprachmodelle (LLMs) eröffnen Unternehmen enorme Möglichkeiten – von intelligenten Chatbots bis hin zu automatisierten Datenverarbeitungs-Pipelines mit Agenten. Doch mit dem produktiven Einsatz steigen auch die Risiken: Der Vortrag beleuchtet gezielt die wichtigsten Angriffsvektoren, mit denen sich LLMs zu ungewolltem Verhalten manipulieren lassen, darunter Prompt Injection, Jailbreaking und datenleckgefährdende Eingaben. Darüber hinaus werden die spezifischen Risiken im Betrieb diskutiert – sowohl bei direkten Nutzerinteraktionen als auch bei autonomen, agentenbasierten Verarbeitungsprozessen. Ziel ist es, ein realistisches Risikobewusstsein zu schaffen und konkrete Ansätze für einen sicheren, risikoarmen LLM-Einsatz im Unternehmenskontext mitzugeben.
Referent*in
Sebastian Horzela ist Gründer der CIPHRON GmbH, einem Unternehmen, das seit 2003 das macht, was man heute Cyber Security nennt, seit 2021 zum TÜV AUSTRIA gehört und gerade in die TÜV TRUST IT aufgegangen ist.
Dr. Alexander Krause promovierte im Forschungsfeld Usable Security an der Leibniz Universität Hannover mit sehr gut in 2025. Seine Forschung fokussiert sich u.a. auf den Umgang von Entwicklern mit Code Secrets, die Überbrückung zwischen rechtlichen Compliance-Anforderungen und der Problematik von Code Secret Leakage. Besonders fasziniert ihn der Einsatz und die Risiken von KI, insbesondere Large Language Models (LLMs).
Kontakt
Dr. Jöran Wrana
Region Hannover
Wirtschaftsförderung
Fachbereich Wirtschafts- und Beschäftigungsförderung