У зв’язку з тим, що хакери вдосконалюють свої методи атаки на електронні пристрої, генеративний штучний інтелект (GenAI) виявився однією з найбільших загроз поточного року. Це відбувається тому, що кіберзлочинці активно використовують такі моделі, як ChatGPT і Gemini AI, для вдосконалення своїх атак. Використання великих мовних моделей (LLM) стало лише вершиною айсберга у світі хакерських інновацій.
“Необхідно розуміти, що ми зараз лише на початковому етапі розвитку GenAI. Багато прикладів, які ми бачимо у сферах кібербезпеки та захисту програм, вказують на значний потенціал цих технологій”, – зазначає Річард Аддіскотт, старший директор-аналітик компанії Gartner.
Важливість GenAI широко обговорюється серед фахівців у галузі безпеки, що створює додаткові виклики. Втім, це також відкриває нові можливості для підвищення ефективності захисних механізмів. Зростаюча загроза інцидентів кібербезпеки з боку сторонніх організацій спонукає керівників відділів безпеки зосередитись на інвестиціях в міцність систем та відходити від стандартних перевірок.
Згідно з нещодавнім звітом, понад чверть організацій обмежила використання GenAI через загрози конфіденційності та безпеки даних.
Опитування “Бенчмаркове дослідження конфіденційності даних Cisco 2024” показало, що більшість компаній обмежують використання GenAI через занепокоєння пов’язані з конфіденційністю та безпекою даних, при цьому 27% компаній тимчасово заборонили його використання.
Основні занепокоєння компаній включають загрози законним правам і правам інтелектуальної власності (69%), а також ризик несанкціонованого розкриття інформації громадськості чи конкурентам (68%).