По новостям доклад ООН и Европола под названием «Злонамеренное использование и злоупотребление искусственным интеллектом», хакеры все чаще используют искусственный интеллект (ИИ) для выполнения нападки. Отчет подготовлен с ее помощью Trend Micro предсказывает, что искусственный интеллект (ИИ) будет использоваться в будущем как средство атаки и поверхность атаки.
Хакеры ищут способы использовать инструменты ИИ в атаках, а также методы, с помощью которых они могут взломать или саботировать существующие системы ИИ, например те, которые используются в распознавании и обнаружении изображений и голоса. вредоносных программ. Как говорится в отчете, в то время как deepfakes являются наиболее «обсуждаемыми» в отношении злонамеренного использования ИИ, существует множество других вариантов использования, которые могут находиться в стадии разработки.
К ним относятся системы машинного обучения или искусственного интеллекта, предназначенные для создания очень привлекательного и индивидуального контента. социальная инженерия, или, возможно, для автоматической идентификации систем и данные высокая ценность для нарушителя сеть быть украденным.

По данным журнала Infosecurity Magazine, вымогателей Атаки с использованием искусственного интеллекта могут включать в себя умное нацеливание, побег и высокоскоростное распространение, чтобы парализовать сети жертв, прежде чем они смогут отреагировать.
Эдвардс Шилерис, глава Центра киберпреступности Европола, сказал, что ИИ обещал миру большую эффективность, автоматизацию и автономию. Он добавил, что в то время, когда люди все больше обеспокоены возможным неправомерным использованием искусственного интеллекта, должна быть прозрачность угроз, но также необходимо учитывать потенциальные преимущества. технология AI. Шилерис также подчеркнул, что этот отчет поможет не только предвидеть возможное злонамеренное использование и злоупотребления искусственным интеллектом, но также предотвращать и смягчать эти угрозы.

В отчете ООН и Европола также определены несколько областей, в которых промышленность и правоохранительные органы могут объединиться для предотвращения этих рисков. Например, они могут работать вместе, чтобы разработать искусственный интеллект как инструмент борьбы с киберпреступностью, а также найти новые способы повышения устойчивости существующих систем искусственного интеллекта для предотвращения возможной попытки саботажа.