Чатботовете са изключително популярен тип софтуерно приложение, използвано в уебсайтове и приложения за симулиране на разговори с потребители и предоставяне на информация. Напоследък GenAI chatbots (ChatGPT, Bard) също нараснаха в популярност, като милиони потребители взаимодействат с тях ежедневно. Тази широко разпространена употреба и близостта на чатботовете до чувствителна информация и организационни системи ги правят риск за киберсигурността. Как организациите могат да гарантират, че се възползват от производителността на чатбота, като същевременно защитават себе си и своите потребители? Получете отговорите по-долу.

Какво представляват AI Chatbots?

Чатботът е софтуерно приложение, предназначено да симулира разговор с човешки потребители. Чрез използване на предварително програмирани правила и понякога AI, чатботовете могат да интерпретират и отговарят на потребителски съобщения. Чатботовете се използват за голямо разнообразие от случаи на употреба, от обслужване на клиенти и маркетинг до събиране на данни от потребители до действие като лични асистенти.

В основната си форма чатботовете често разчитат на набор от предварително дефинирани входове и отговори. Например чатбот на уебсайт за търговия на дребно може да разпознае фрази като „проследяване на моята поръчка“ или „политика за връщане“ и да предостави съответната информация. По-напредналите чатботове използват AI, ML и NLP, за да разберат и отговорят на широк набор от потребителски данни с повече гъвкавост и контекст на разговор. Те могат също така да се учат от взаимодействията, за да подобрят отговорите си с течение на времето.

Въпреки че чатботовете могат да предоставят информация и да симулират разговори, те не притежават подобно на човешкото разбиране или съзнание. Техните отговори се генерират въз основа на алгоритми и данни, а не на личен опит или емоции. Като такива, те са обект на определени видове заплахи за сигурността и уязвимости на чатбота, които могат да изложат на риск потребителите и организацията, управляваща чатбота. Нека да видим кои видове и как да се предпазим от тях.

Сигурни ли са чатботовете?

Чатботовете взаимодействат с лична и поверителна информация и са взаимосвързани както с организационните системи, така и с интернет. Това ги прави организационна уязвима точка, податлива на пробиви в сигурността. Различни експерименти, провеждани върху чатботове с изкуствен интелект, демонстрират как те могат да се използват за атаки като prompt injeдействие атаки, а нападателите обсъждат своите потенциално злонамерени приложения в подземни форуми. Следователно гарантирането на тяхната сигурност е важно за защитата както на потребителите, така и на организацията.

Сигурността на чатбот се отнася до мерките и практиките за защита на чатботовете и потребителите от различни заплахи за сигурността и уязвимости. Тези мерки са предназначени да ги предпазят от неоторизиран достъп, пробиви на данни, използване за chatbot Фишинги други форми на кибератаки, които повдигат проблеми със сигурността на chatbot.

Уязвимости в сигурността на чатбота

Нарастващото използване на AI чатботове в рамките на организационните системи поддържа иновативни приложения, като автоматизиране на обслужването на клиенти, повишаване на ангажираността на потребителите и рационализиране на извличането на информация. Несигурното и неконтролирано използване обаче може да застраши операциите на организацията и сигурността на данните.

Чувствителни бизнес данни, които са изтекли, могат да бъдат използвани от конкуренти на предприятието или от нападатели за дейности като ransomware. Това може значително да повлияе на бизнес плановете на една организация, начина, по който клиентите ги възприемат и доверието, което им се оказва от законните органи.

Например, ако изтече предстоящо маркетингово съобщение и конкурентите решат да проведат състезателна кампания, бизнесът може да загуби значителен пазарен дял. Ако нападателите имат за цел да разкрият публично данни на клиенти, бизнесът може да бъде обект на тежък откуп. Ако данните изтекат, бизнесът може да бъде глобен от властите и подложен на проверка за други грешки в управлението. Ето защо е важно да се използват правилните мерки за сигурност, за да се предпазите от тези рискове.

Рискове за сигурността на чатбота за предприятията

1. Поверителност и цялост на данните

Нарушения на данните/Кражба на данни/Изтичане на данни

Когато чувствителна информация се въведе в модела и след това изтече или ексфилтрира чрез пробиви в базата данни или чрез отговорите на моделите.

Събиране на информация

Когато нападателите събират чувствителна информация, като подсказват на чатбота относно системи, мрежови компоненти, кодиране, практики за сигурност, потребителски предпочитания и др.

Разпространение на дезинформация

Когато ChatGPT разпространява невярна дезинформация, изфабрикувани данни или неточни факти, поради халюцинации или когато невярна информация е въведена нарочно в ChatGPT.

Изфабрикувани и неточни отговори

Когато неправилни и подвеждащи отговори се представят като фактически отговори на подкани.

Автоматизирана пропаганда

Когато дезинформацията се използва за манипулиране на общественото мнение чрез пропаганда.

2. Злонамерени атаки

Злонамерени фишинг имейли

Когато нападателите подканят ChatGPT да напише фишинг имейли, които звучат като легитимни и надеждни личности на голямо разнообразие от езици.

Атаки на социалното инженерство

Когато нападателите подканят ChatGPT да създаде убедителни съобщения, които се използват за измама на жертвите.

представяне

Когато нападателите подканят ChatGPT да се представя за законни потребители за измама, социално инженерство и други злонамерени цели.

Заобикаляне на системите за модериране на съдържание

Когато нападателите подканят ChatGPT да създаде съобщения, които заобикалят системите за модериране на съдържание и получават неоторизиран достъп до системите.

Разработка на злонамерен софтуер и рансъмуер

Когато нападателите подканят ChatGPT да напише скриптове за злонамерен софтуер и рансъмуер или да помогне за отстраняване на грешки в такива скриптове.

Генериране на зловреден код

Когато нападателите подканят ChatGPT да помогне за използване на уязвимости чрез код.

3. Смущения в бизнеса и операциите

Jailbreak атаки (атаки срещу ChatGPT)

Когато нападателите използват уязвимостите на OpenAI за достъп до чувствителни данни или създаване на изфабрикувано съдържание. 

Грешки в поверителността на ChatGPT (Атака срещу ChatGPT)

Когато уязвимостите на ChatGPT компрометират поверителността на потребителите чрез излагане на чувствителна информация.

Рискове, свързани с интелектуалната собственост (IP) и авторските права

Когато ChatGPT създава съдържание, което твърде много наподобява активи с авторски права, което потенциално нарушава правата на IP.

Кражба на интелектуална собственост

Когато ChatGPT предоставя отговори на други потребители, които нарушават вашия IP.

Промени в политиката на компанията OpenAI

Ако OpenAI промени насоките за поверителност на потребителите, политиките за използване на данни или етичните рамки, оказвайки влияние върху способността на предприятията да осигурят непрекъсната комуникация за потребителите, операции и привеждане в съответствие.

4. Етичен изкуствен интелект, пристрастия и токсичност

Модел и отклонение на изхода

Когато отговорите на ChatGPT са пристрастни, поради отклонения в данните за обучение, неточно обучение или липса на предпазни огради.

Смекчаване на пристрастията

Когато пристрастията не са адресирани, което води до дискриминационни практики или резултати.

Рискове за защита на потребителите

Когато предприятията по невнимание споделят чувствителни клиентски данни или предоставят неетични резултати на клиентите.

Сигурност на ChatGPT

Един от най-популярните използвани чатботове с изкуствен интелект е ChatGPT, онлайн GenAI приложение, разработено от OpenAI. ChatGPT е проектиран да генерира човешки текст въз основа на входа, който получава, позволявайки широк спектър от приложения в случаи на разговор, създаване на съдържание и синтез на информация.

Сигурността в контекста на ChatGPT включва множество слоеве за преодоляване на риска за сигурността на chatbot:

  • Защита на потребителските данни срещу неоторизиран достъп.
  • Защита на модела срещу противникови атаки, предназначени да манипулират или извличат чувствителна информация.
  • Гарантиране на сигурността на инфраструктурата, хостваща AI модела, включително защити срещу кибер заплахи като хакерство и DDoS атаки.
  • Съответствие с правни рамки като GDPR, за да се гарантира зачитане на потребителското съгласие и правата върху данните, привеждане на системата за изкуствен интелект в съответствие с етичните насоки.
  • Наблюдение и филтриране на входове, за да се предотврати излагането на AI модела на вредно, незаконно или неетично съдържание или научаване от него.
  • Контрол и модериране на изхода, за да се предотврати генерирането на вредно или предубедено съдържание от AI модела.
  • Справяне с потенциални пристрастия в обучението на модели.
  • Обучение на потребителите относно безопасната и подходяща употреба на AI, включително неговите ограничения и най-добри практики за взаимодействие.
  • В допълнение, ChatGPT DLP решенията могат да защитят чувствителни данни от излагане, без да нарушават потребителското изживяване. Това се прави чрез предотвратяване на поставянето на организационни данни в ChatGPT или ограничаване на типовете данни, които служителите могат да вмъкват.

Бард Сигурност

Bard е друг популярен GenAI чатбот, разработен от Google. Подобряването на сигурността на Bard AI chatbot е идентично със сигурността на ChatGPT. Това включва стратегии за внедряване на силни мерки за сигурност като криптиране, контрол на достъпа и защитни стени за защита на данните, наблюдение на AI chatbots за необичайни дейности с помощта на ML алгоритми, обучение на потребителите относно присъщите рискове, свързани с AI chatbots, разработване и спазване на етични насоки за създаване и използване на AI chatbots и др.

Контролен списък за сигурност на Chatbot за предприятия

Осигуряването на AI чатботове може да помогне за намаляване на рисковете от заплахите и уязвимостите, които пречат на използването на чатботове. Най-добрите практики за прилагане включват:

Криптиране на данни

Уверете се, че данните, предавани към и от чатбота, са криптирани. Това включва не само съобщенията, но и всички потребителски данни, съхранявани от чатбота. Използвайте протоколи като HTTPS и SSL/TLS за предаване на данни.

Контрол на достъпа и удостоверяване

Приложете силно заверка методи за предотвратяване на неоторизиран достъп до административните функции на чатбота. Това може да включва многофакторно удостоверяване или използването на защитени токени.

Редовни одити на сигурността и тестове за проникване

Редовно провеждайте одити на сигурността и тестове за проникване, за да идентифицирате и коригирате уязвимостите.

Минимизиране на данните и поверителност

Следвайте принципа за минимизиране на данните. Събирайте само данни, които са абсолютно необходими за функционалността на чатбота. Това намалява риска в случай на нарушение на данните.

Съответствие с разпоредбите за защита на данните

Осигурете спазване на съответните закони за защита на данните като GDPR, HIPAA и т.н. Това включва получаване на съгласие на потребителя за събиране на данни и предоставяне на опции за потребителите за достъп или изтриване на техните данни.

Валидиране на въведеното от потребителя

Дезинфекцирайте входовете на потребителите, за да предотвратите атаки чрез инжектиране. Това означава проверка на въведените от потребителите данни и гарантиране, че не съдържат зловреден код или скриптове.

Защита на Backend инфраструктурата

Защитете сървърите и базите данни, където работи чатботът. Това включва редовни актуализации, управление на корекции и използване на защитни стени и системи за откриване на проникване.

Мониторинг и реакция при инциденти

Непрекъснато наблюдавайте чатбота за подозрителни дейности. Подгответе план за реакция при инцидент в случай на пробив в сигурността.

Специфични за AI заплахи

Обърнете внимание на специфични за AI заплахи, като отравяне на модела или конкурентни атаки, при които злонамерени входове са предназначени да объркат AI модела.

Информираност и обучение на потребителите

Обучете потребителите относно сигурните взаимодействия с чатбота. Това може да включва насоки за несподеляне на чувствителна информация, освен ако не е абсолютно необходимо.

Използвайте разширение за защитен браузър

Употреба разширение за защитен браузър за защита на чувствителни организационни данни от излагане на уебсайтове с чатботове. Картирайте и дефинирайте данните, които се нуждаят от защита, като изходен код, бизнес планове и интелектуална собственост. Разширението предлага различни опции за контрол, като изскачащи предупреждения или пълно блокиране, които могат да бъдат активирани при използване на чатбота или при опит за поставяне или въвеждане в неговия интерфейс. Това дава възможност за използване на потенциала за производителност на чатботовете, като същевременно предпазва от неволно излагане на чувствителни данни.

Следващи стъпки за екипите по сигурността и ИТ: Вашият план от 5 стъпки

Тъй като използването на притежавани чатботове и GenAI чатботове нараства, организациите трябва да обърнат внимание на сигурността на чатботовете в своите цялостни планове за сигурност и ИТ. За да направите това, изпълнете следните стъпки:

  1. Оценете риска – С какви видове чувствителни данни взаимодействат чатботовете? За притежавани чатботове – анализирайте как нападателите могат да се насочат към вашия чатбот.
  2. Минимизирайте излагането на данни – Картирайте типовете данни, които чатботовете могат да събират. Уверете се, че това са само основни данни. За притежавани чатботове проверете сигурни комуникационни канали, съхранение на данни и механизми за обработка.
  3. Внедрете контрол за сигурност – удостоверяване и оторизация, валидиране на въвеждане на криптиране и ChatGPT DLP.
  4. Тестване и мониторинг – Наблюдавайте кои данни потребителите са се опитали да изложат и как вашите решения се държат в тези случаи, блокирайки или предупреждавайки за риска. За притежавани чатботове, провеждайте тестове за проникване, за да идентифицирате и адресирате уязвимостите.
  5. Обучение и информираност – Редовно обучавайте служителите и вашите потребители на chatbot относно най-добрите практики за сигурност и необходимостта от ограничаване на данните, изложени на chatbot.

За да видите ChatGPT DLP на LayerX в действие, кликнете тук.