На главную страницу
 
Головна
Про нас
Новини
Обговорення
Оголошення
База знань
Пошук
Карта сайту
Коментарі
Інтерв'ю
Аналітика
Рейтинги
Поиск по сайту

Обговорення / Аналітика / Аналітика

Ризики штучного інтелекту в страхуванні можуть стати значними і неочікуваними для страховиків

Версия для печати Версия для печати
25.03.2024 

З огляду на те, що штучний інтелект (АІ) зараз впливає на усі аспекти життя, кількість страхових ризиків з впровадженням АІ за останні роки різко зросла, вважають аналітики перестраховика Munich Re, продемонструвавши у звіті, як ризик штучного інтелекту в страхуванні може стати "неочікуваним" для страховиків.

"Одним із прикладів є чисті економічні втрати. Наприклад, якщо компанія використовує внутрішні операції АІ. Скажімо, банк використовує штучний інтелект для отримання інформації з документів, але тоді, якщо штучний інтелект по суті створює забагато помилок, тоді те, що було отримано, є великою кількістю невірної інформації. Це означатиме, що людям потрібно буде виконувати роботу знову, що спричинить багато додаткових витрат", вважають аналітики Munich Re.

З іншого боку, може існувати дискримінація АІ. Прикладом можуть бути заявки на отримання кредитної картки та ліміти кредитної картки. AI може бути використаний для визначення відповідного кредитного ліміту для заявника, і при цьому може виникнути дискримінація, яка не покриватиметься іншими страховими полісами. Або взагалі, заявнику можуть відмовити у кредитному ліміті через рішення АІ.

На думку перестраховика, ризик штучного інтелекту в традиційних страхових полісах може стати значним і неочікуваним ризиком для страховика.

Штучний інтелект має потенціал систематичного накопичення ризику, особливо якщо одна модель використовується в подібних сценаріях використання різними компаніями. Ще одна сфера, яку слід розглянути, – це група ризиків порушення авторських прав із генеративними моделями АІ.

Користувачі можуть використовувати генеративну модель штучного інтелекту (GenAI) для створення текстів або зображень, але модель потенційно може створювати тексти або зображення, які дуже схожі на захищені авторським правом тексти чи зображення. Якщо користувач вирішить використовувати це, він може зіткнутися з претензіями щодо порушення авторських прав і судовими позовами проти нього.

Оскільки генеративний штучний інтелект продовжує зростати та розширюватися в секторі страхування та перестрахування, використання технології як на користь, так і на зло продовжить залишатися ризиком у 2024 році, вважають аналітики групи кіберризиків компанії Beazley.

Розмір ринку генеративного штучного інтелекту в страхуванні до 2032 року зросте з 346,3 мільйона доларів до 5,54 млрд доларів та зростатиме на 32,9% протягом наступного десятиліття, йдеться у звіті Beinsure Generative AI in Insurance.

Страховий ринок переживає значну трансформацію завдяки експоненційному зростанню технології генеративного штучного інтелекту. Постачальники страхових послуг використовують можливості штучного інтелекту для оптимізації своїх операцій, покращення моделей оцінки ризиків і надання персоналізованого досвіду клієнтам. Революційні можливості генеративного штучного інтелекту, який генерує нову та цінну інформацію, готові змінити цей сектор.

Цікаво, що Munich Re зауважують, що багато компаній можуть створити власні моделі АІ не з нуля, а спираючись на великі моделі GenAI і розвиваючи їх далі.

Вони можуть використовувати ці моделі як базові. Але якщо базова модель має певний ризик створити об'єкти, що порушують авторські права, якщо її використовувати як базову модель, ризик збережеться, навіть якщо її використовують лише як основу для навчання власної програми. Таке використання базової моделі підвищує потенціал для системного накопичення в області порушення авторських прав.

Завдяки тому, що технологія штучного інтелекту значно впливає на наше життя, страхові поліси ці ризики покривають частково, що зрештою ускладнює повну впевненість як для страховика, так і для застрахованих щодо обсягу страхового покриття.

Існують прогалини в покритті, пов'язані з чистими економічними втратами та дискримінацією АІ, тому необхідно розробити відповідне страхове покриття. Але також є занепокоєння щодо впливу АІ.

Для галузі може бути доцільним структурувати один комплексний страховий продукт, вважає Munich Re, який забезпечує ясність щодо наявності страхового покриття певних зобов'язань, які виникають у результаті використання АІ. Це вирішило б проблему справді проактивним способом.

Існують технічні обмеження щодо гарантій, оскільки існують різні форми ризиків АІ. Через це для певних ризиків штучного інтелекту страховики можуть запропонувати покриття лише за умови виконання певних технічних умов.

Наприклад, Munich Re може покрити ризик порушення авторських прав, якщо використовуються певні статистичні методи, які змінюють генеративну модель штучного інтелекту таким чином, щоб андеррайтери могли з високою достовірністю оцінити ймовірність того, що вона дасть подібний результат. Неможливо уникнути того факту, що генеративна модель АІ створюватиме результати, які можуть порушувати авторські права. Однак є певні інструменти, які хоча б зменшують ймовірність того, що щось подібне може статися.

Однак навіть якщо компанія має найдосконалішу модель АІ, вона ніколи не буде безпомилковою. Будь-яка модель штучного інтелекту з певною ймовірністю робитиме помилки, і все зводиться до точки зору процесу тестування. Чи достатньо надійні процедури тестування, щоб страховики могли оцінити цю ймовірність? Якщо ні, то такі ризики не підлягають страхуванню.

Источник:  Форіншурер
URL статьи:  https://forinsurer.com/news/24/03/25/43598

«« Вернуться на первую страницу раздела



Адміністрація сайту не завжди поділяє думку авторів чиї статті розміщені на ресурсі.
При використанні матеріалів сайту гіперпосилання www.insurancebiz.org обов'язкове.
© 2006-2024 Асоціація Страховий Бізнес