• [:ua]Відкрита лекція Мстислава Казакова[:en]Public lecture by Mstyslav Kazakov[:]

    [:ua]16 квітня 2025 року відбулася відкрита лекція викладача кафедри Мстислава Казакова на тему “Принципи безпечного дизайну” (Safe Design Principles) в рамках курсу “Етика Штучного Інтелекту“, присвячена фреймворку “Безпеки за задумом”, стратегії створення безпечного та етичного ШІ, центральною ідеєю якої є вбудовування безпеки в систему Штучного інтелекту на фазі дизайну.

    На прикладах конкретних принципів (резервування, антикрихкість, відмовостійкість, мінімізація привілеїв тощо) було продемонстровано відмінності даної стратегії від стратегій побудови системи без задумів безпеки із додаванням безпекових заходів на більш пізніх фазах життєвого циклу системи ШІ (розробка, тренування, розгортання).

    Актуальність, адекватність та своєчасність деяких принципів було переглянуто та поставлено під сумнів в світлі нещодавніх інцидентів (The AI Scientist – японського інтелектуального агента, який змінює власний код для зламу та обходу людських обмежень) та найостанніших досліджень в області ШІ (“Про біологію Великої мовної моделі” дослідницької команди компанії Anthropic) і нових викликів, які вони кидають шляхам реалізації стратегії “Безпеки за задумом”.

    Лекцію було проведено в рамках популяризації проєкту Pan-European Network for Responsible Artificial Intelligence Multisector Masters’ Programme (PANORAIMA)

    [:en]On 16 April 2025, a pubic lecture by Dr. Mstyslav Kazakov entitled “Safe Design Principles” was held within the course “Ethics of Artificial Intelligence”. The lecture focused on the theme “Secure by Design” framework, a strategy for creating safe and ethical AI, with a central idea to embed security into the AI system at the design phase.
    Using examples of specific principles (redundancy, antifragility, non-repudiation, privilege minimization, etc.), the differences of this strategy from strategies of building a system without security in mind with the addition of security measures in later phases of the AI ​​system life cycle (development, training, deployment) were demonstrated.
    The relevance, adequacy and timing of some principles were reviewed and questioned in light of recent cases (The AI ​​Scientist – a Japanese intelligent agent that changes its code to hack and bypass human limitations) and the latest research in the field of AI (“On the Biology of a Large Language Model” by the Anthropic research team) as well as the new challenges they pose by implementing the “Secure by Design” strategy.
    Parts of the lecture have been executed within the framework of the Pan-European Network for Responsible Artificial Intelligence Multisector Masters’ Programme (PANORAIMA)[:]

  • Відкрита лекція Мстислава Казакова

    16 квітня 2025 року відбулася відкрита лекція викладача кафедри Мстислава Казакова на тему “Принципи безпечного дизайну” (Safe Design Principles) в рамках курсу “Етика Штучного Інтелекту“, присвячена фреймворку “Безпеки за задумом”, стратегії створення безпечного та етичного ШІ, центральною ідеєю якої є вбудовування безпеки в систему Штучного інтелекту на фазі дизайну.

    На прикладах конкретних принципів (резервування, антикрихкість, відмовостійкість, мінімізація привілеїв тощо) було продемонстровано відмінності даної стратегії від стратегій побудови системи без задумів безпеки із додаванням безпекових заходів на більш пізніх фазах життєвого циклу системи ШІ (розробка, тренування, розгортання).

    Актуальність, адекватність та своєчасність деяких принципів було переглянуто та поставлено під сумнів в світлі нещодавніх інцидентів (The AI Scientist – японського інтелектуального агента, який змінює власний код для зламу та обходу людських обмежень) та найостанніших досліджень в області ШІ (“Про біологію Великої мовної моделі” дослідницької команди компанії Anthropic) і нових викликів, які вони кидають шляхам реалізації стратегії “Безпеки за задумом”.

    Лекцію було проведено в рамках популяризації проєкту Pan-European Network for Responsible Artificial Intelligence Multisector Masters’ Programme (PANORAIMA)