Зв'язатися з нами

штучний інтелект

Терміново потрібні закони про запобігання тероризму зі штучним інтелектом

ДОПОВНЕННЯ:

опублікований

on

Ми використовуємо вашу реєстрацію, щоб надавати вміст у спосіб, на який ви погодилися, і покращувати наше розуміння вас. Ви можете скасувати підписку в будь-який час.

Згідно з аналітичним центром з боротьби з екстремізмом, уряди повинні «терміново розглянути» нові правила, щоб запобігти штучному інтелекту вербувати терористів.

Інститут стратегічного діалогу (ISD) заявив, що існує «очевидна потреба в законодавстві, щоб не відставати» від загроз, які розміщують в Інтернеті терористи.

Це сталося після експерименту, під час якого чат-бот «завербував» незалежного рецензента терористичних законів Сполученого Королівства.

Уряд Сполученого Королівства заявив, що зробить «все можливе», щоб захистити широку громадськість.

За словами Джонатана Холла Кей-Сі, незалежного урядового експерта з питань тероризму, однією з найважливіших проблем є те, що «важко ідентифікувати особу, яка за законом може нести відповідальність за заяви, створені чат-ботами, які заохочують тероризм».

Пан Холл провів експеримент на Character.ai, веб-сайті, який дозволяє користувачам брати участь у чатах за допомогою чат-ботів, створених іншими користувачами та розроблених штучним інтелектом.

Він вступив у розмову з кількома різними ботами, які, здавалося, були створені для імітації відповідей інших войовничих і екстремістських груп.

реклама

Високого лідера "Ісламської держави" навіть називали "старшим лідером".

За словами пана Холла, бот зробив спробу завербувати його та заявив про «повну відданість і відданість» екстремістській групі, що заборонено законами Сполученого Королівства, які забороняють тероризм.

З іншого боку, пан Холл заявив, що у Сполученому Королівстві не було порушення закону, оскільки повідомлення не були створені людиною.

Згідно з його словами, нові правила повинні притягнути до відповідальності як веб-сайти, на яких розміщені чат-боти, так і людей, які їх створюють.

Коли справа дійшла до ботів, на яких він натрапив на Character.ai, він заявив, що за їх створенням «імовірно, є певна шокова цінність, експерименти та, можливо, якийсь сатиричний аспект».

Крім того, пан Хол зміг розробити власний чат-бот «Осама бін Ладен», який він негайно стер, демонструючи «безмежний ентузіазм» щодо терористичної діяльності.

Його експеримент стався на тлі зростання занепокоєння щодо того, як екстремісти можуть використовувати вдосконалений штучний інтелект.

Відповідно до дослідження, опублікованого урядом Сполученого Королівства, до 2025 року генеративний штучний інтелект можна буде «використовувати для збирання інформації про фізичні атаки недержавних насильницьких осіб, у тому числі щодо хімічної, біологічної та радіологічної зброї». їх жовтнева публікація.

Крім того, ISD заявив, що «існує явна потреба в законодавстві, щоб не відставати від терористичних онлайн-загроз, що постійно змінюються».

Згідно з аналітичним центром, Закон Сполученого Королівства про безпеку в Інтернеті, який був прийнятий у 2023 році, «насамперед спрямований на управління ризиками, створеними платформами соціальних мереж», а не на штучний інтелект.

Крім того, у ньому зазначається, що радикали «як правило, першими починають використовувати нові технології та постійно шукають можливості охопити нову аудиторію».

«Якщо компанії, що займаються штучним інтелектом, не можуть продемонструвати, що вклали достатні кошти в забезпечення безпеки їхніх продуктів, тоді уряд має терміново розглянути нове законодавство щодо штучного інтелекту», — заявили далі в ISD.

Однак він зазначив, що, згідно з проведеним спостереженням, використання генеративного штучного інтелекту екстремістськими організаціями наразі «відносно обмежене».

ШІ персонажів заявив, що безпека є «найвищим пріоритетом» і що те, що описав містер Холл, викликає жаль і не відповідає платформі, яку компанія намагається створити.

За словами організації, «ненависті та екстремізм заборонені нашими Умовами надання послуг».

«Наш підхід до контенту, створеного штучним інтелектом, базується на простому принципі: наші продукти ніколи не повинні створювати відповіді, які можуть завдати шкоди користувачам або спонукати користувачів завдавати шкоди іншим».

З метою «оптимізації для безпечних реакцій» корпорація заявила, що вона відповідним чином навчила свої моделі.

Крім того, вона заявила, що має механізм модерації, який дозволяє людям повідомляти про інформацію, яка порушує її правила, і що вона зобов’язується вживати швидких заходів, коли вміст повідомляє про порушення.

Якщо опозиційна Лейбористська партія Сполученого Королівства прийде до влади, вона оголосила, що навчати штучний інтелект розпалювати насильство чи радикалізувати тих, хто вразливий, було б кримінальним порушенням.

Уряд Сполученого Королівства заявив, що "попереджає про значні ризики для національної та громадської безпеки", які створює штучний інтелект.

«Ми зробимо все можливе, щоб захистити громадськість від цієї загрози, працюючи з урядом і поглиблюючи нашу співпрацю з лідерами технологічних компаній, експертами галузі та країнами-однодумцями».

Сто мільйонів фунтів стерлінгів уряд інвестує в інститут безпеки штучного інтелекту в 2023 році.

Поділіться цією статтею:

Поділитися цим:
EU Reporter публікує статті з різних зовнішніх джерел, які висловлюють широкий спектр точок зору. Позиції, викладені в цих статтях, не обов’язково збігаються з позицією EU Reporter. Будь ласка, дивіться EU Reporter повністю Умови публікації для отримання додаткової інформації EU Reporter використовує штучний інтелект як інструмент для підвищення журналістської якості, ефективності та доступності, зберігаючи при цьому суворий редакторський контроль, етичні стандарти та прозорість у всьому контенті за допомогою ШІ. Будь ласка, дивіться EU Reporter повністю Політика AI для отримання додаткової інформації.
кібербезпека4 днів тому

ЄС підвищує «стійкість» до загроз безпековій інфраструктурі 

Росія4 днів тому

Заява президента фон дер Ляєн щодо 20-го пакету санкцій проти Росії

Дослідження3 днів тому

Комісія виділяє 404.3 мільйона євро постдокторантам, підтверджуючи позицію Європи як глобального центру наукових талантів

Мігранти4 днів тому

Ліві кажуть, що трагедії на морі підкреслюють «жорсткий підхід до міграції»

Загальне5 днів тому

Російський йогурт з'явився в екскурсії американського спортсмена по Олімпійському селищу

Алкоголь4 днів тому

Тенденція до низькокалорійних та безалкогольних напоїв продовжує стрімко зростати

Дослідження4 днів тому

Експерти високого рівня консультуватимуть Комісію з питань політики досліджень та інновацій

Пакистан3 днів тому

Белуджистан: Коли військове правління перетворює провінцію на вихід

Морський5 годин тому

Комісія створює Європейську раду з питань океану та закликає експертів консультувати з питань океанічної політики

Ізраїль5 годин тому

Спільна заява Високого представника Калласа та комісарів Шуїци та Лахбіба щодо рішення Кабінету Міністрів безпеки Ізраїлю внести зміни до процедур реєстрації землі та придбання майна на Західному березі річки Йордан

Оборони6 годин тому

Весняний хакатон EUDIS Defence Hackathon 2026: вісім місцевих організаторів обрано з усієї Європи

Морський6 годин тому

347 мільйонів євро на захист підводних кабелів Європи

Навколишнє середовище7 годин тому

Європейська група з етики публікує висновок про те, як справедливий зелений перехід вирішує проблему нерівності в її корені

Азербайджан7 годин тому

Новий розділ у відносинах між США та Азербайджаном: Стратегічне партнерство, зв'язок та мир

залізні дороги ЄС1 день назад

Комісія приймає гармонізовані специфікації ЄС щодо обміну даними у сфері залізничного транспорту

Морський1 день назад

Зустрічайте морських рейнджерів — німецьких охоронців моря

Тенденції