support@matomba.ru
Свежее SEOSMMБизнесДизайнИнвестицииРекламаСтартапыТехнологииЮриспруденция

Кризис верифицируемости как крупнейший минус ИИ

Tim11.05.2023 в 11:553 мин. 4 сек.8123
Кризис верифицируемости как крупнейший минус ИИ

Пока нейросети только в начале своего победоносного шествия, полиция в США уже в марте била тревогу. Ведь с помощью нейросети мошенники могут  писать вредоносные программы, подменять лица на видео и подделывать голоса.

Представьте себе мир, где исчезла доказательная сила видео, голоса вашего президента или родного, где вы уже не уверены, что спорите с человеком в комментариях, а не с натренированным на определенных нарративах боте-GPT, который имитирует задержку написания комментария. Таково будущее при кризисе верифицируемости, в котором легко можно будет создать любое изображение, видео или текст. Уже сейчас в ютубе много поддельных песен знаменитостей, реконструкций как бы выглядел Гарри Поттер в Баленсиаге, ну или как вел себя президент США Байден, если бы он попал в мир игры TES V Скайрима.

Мы идем в такой мир быстрыми шагами. Хакеры используют нейросети, чтобы сэкономить умственные усилия и быстро и эффективно писать код вредоносных программ. Также мошенники используют саму шумиху вокруг нейросетей - они начали продавать доступ к Chat GPT и Гигачат, хотя оба сервиса бесплатны. Жители России не могут его использовать ChatGPT из-за позиции компании Open Ai, поэтому некоторые люди предлагают зарегистрировать его на номер из другой страны за деньги, но не всегда выполняют свои обещания.  А Гигачат от сбера еще тестируется. Также есть приложения, которые берут деньги за быстрый доступ к ChatGPT, но они ничего полезного не предлагают и только собирают вашу персональную информацию. Также, простота создания скриптов беседы в GPT позволяет на ходу совершенствовать техники обмана.

Искусственный интеллект используется для создания фальшивых инвестиционных проектов. Он создает сайты, заполняет их контентом, а также пишет и публикует положительные отзывы и истории успеха. В результате получаются тексты, которые выглядят уникальными и относительно качественными, так как они созданы при помощи ИИ. Многие люди попадаются на удочку и верят в эти тексты.

Как с этим бороться?

Кажется, что борьба обречена - вооруженные промтами, жулики получают могучий инструмент в свои руки. Но на деле, простые граждане не остаются безоружными. Например, чат-бот Ленни (создан в 2009 году), основная задача которого - бороться со скаммерами. Представьте, что вам позвонил очередной "сотрудник безопасности банка", а ему вместо вас отвечает пожилой мужчина. Старичок одинок, не прочь рассказать об отвлеченных темах, не способен сконцентрироваться на целях звонка торговца и вообще плохо понимает и слышит мошенника. Записи разговоров злоумышленников и Ленни собирают неплохие просмотры на ютубе до сих пор.

Если вы подозреваете вашего собеседника в скаме, вы вполне можете отдать вашего собеседника в руки такого бота-автоответчика с вашим голосом, пока ваш друг или знакомый не ответит на все контрольные вопросы или не подтвердит другим способом, что это он.

Пока у нас есть приватность и то, что нельзя вычислить социальной инженерией, у  злоумышленников будет меньше возможностей обмануть вас. Но вот с политическим давлением будет тяжелее.

Эра высокоэффективных психологических операций.

2022 год доказал, что бот-фермы и специалисты по психологическим операциям существуют - и они влияют на общественное мнение. И если в нашем обществе будущего с кризисом верифицируемости отдельная банда преступников ограничится в создании простой системы атаки фейковой информации, то целое государство может создать концептуальные схемы психологических атак с тщательно сгенерированным контентом, подбирая нужный ToV (Tone of Voice - способ подачи) и ища выгодные для себя нарративы в массиве переписок противоборствующей стороны. В таком случае, население противоборствующей страны будет получать огромное количество заранее созданного контента с разными задачами, в разной степени опровергающей информацию официальных органов.

Противоборствовать такому будет очень сложной задачей. И нам еще предстоит найти решение для такой ситуации.

Ведь это представляет угрозу для стабильности государств. И пока что для защиты от такого влияния мы можем  развивать критическое мышление, проверять источники информации и использовать средства проверки фактов. Кроме того, государства и общественные организации должны сотрудничать, чтобы разрабатывать и применять эффективные механизмы борьбы с фейковой информацией и манипуляциями общественным мнением. Пока что это - самая надежная защита.

Лого matomba.info
Новые публикации
Задать вопрос