"Microsoft Copilot on turvalisem kui ChatGPT" - sellist väidet võib üha sagedamini kohata nii sotsiaalmeedias kui ka tehisintellekti teemalistel seminaridel ja konverentsidel. Aga mida üldse tähendab turvalisus selliste toodete nagu ChatGPT ja Microsoft Copilot puhul? Mida peab ettevõtte või organisatsioon arvesse võtma?
Olen viimastel päevadel uurinud mõlema toote tehnilisi spetsifikatsioone, avalikku turvadokumentatsiooni ja tegelikke võimekusi. Selgub, et pilt on oluliselt nüansirikkam kui esmamulje võiks arvata.
Järgnev analüüs keskendub kaheksale turvalisuse aspektile, alates kasutajate haldusest ja lõpetades AI mudelite treenimise turvalisusega. Vaatame täpsemalt, milles seisnevad toodete erinevused, kuidas kumbki lahendus erinevaid riske maandab ja mis on need aspektid, millele iga ettevõte peaks oma valikut tehes tähelepanu pöörama.
TL;DR
Kui vaadata, milliseid meetmeid OpenAI on kasutusele võtnud, et tagada ChatGPT turvalisust, siis ei ole korrektne väita, et ChatGPT on ebaturvaline tööriist. Samas, kui küsida, kas Microsoft Copilot on turvalisem kui ChatGPT, siis vastus on pigem jah. Seda muidugi tingimusel, et ettevõte on hoolt kandnud kogu oma Azure’i instantsi kasutamise turvalisuse eest.
Mis on mis?
Enne kui süveneme kahe ettevõtetele mõeldud tehisintellekti assistendi turvalisuse analüüsi, peame selgeks tegema, millistest toodetest me siin artiklis üldse räägime. Ei Microsoft ega ka OpenAI ei ole oma toodete nimepoliitikas just eriti selgelt välja toonud, et mis on erakasutaja toode ja mis on mõeldud ettevõtetele. Seetõttu ongi hea siinkohal selgitada, et mida analüüsi kaasasime ehk siis mis on Microsoft Copilot ja mis on ChatGPT Team?
Microsoft Copilot (varem tuntud ka kui Bing Chat) ja ChatGPT Team on mõlemad AI assistendid, mis on loodud ettevõtete vajadusi silmas pidades.
Microsoft Copilot toimib kui üldotstarbeline AI-assistent, mis suhtleb värske veebiinfoga ja OpenAI viimaste keelemudelitega.
Microsoft Copilot kasutajaliides (ettevõtte kasutajale)
ChatGPT Team on ettevõtete suunatud AI abimeest, mis erineb ChatGPT Plusist selle poolest, et administraatorid saavad kontrollida kasutajaid ja seadeid ning meeskonnad saavad luua ja jagada kohandatud AI-tööriistu (GPT’sid) oma tööruumi (workspace) raames.
ChatGPT Team kasutajaliides
Mõlemad lahendused on üles ehitatud 'privacy-by-design' põhimõttel, kuid erinevus seisneb selles, kuidas nad integreeritakse ettevõtte olemasolevasse turvaarhitektuuri.
Mis jäi võrdlusest välja ja miks?
Selleks, et vältida apelsinide võrdlemist õuntega, jäid võrdlduses välja väga sarnased OpenAI ja Microsofti tooted nagu ChatGPT Plus ja Microsoft 365 Copilot.
ChatGPT Plus on OpenAI eraisikutele suunatud teenus, mis annab ligipääsu uuematele mudelitele ja laiendatud funktsionaalsusele, kuid sellele ei kehti ärikliendi üldtingimused ja privaatsustingimused. Kuigi paljud ettevõtted kasutavad ChatGPT Plusi, on see siiski mõeldud eraisikutele ja ei paku ettevõtte-tasemel turvagarantiisid.
Samamoodi jätame kõrvale Microsoft 365 Copiloti, mis küll pakub ettevõtte-tasemel turvalisust, aga on spetsiifiline tööriist Microsoft 365 ökosüsteemi sees olevates toodetes töötamiseks ja nende toodete funktsioonide täiendamiseks.
Mida me andmeturvalisuse all võiks mõista?
Nüüd kui me oleme selgeks saanud, et millistest toodetest me räägime, on aeg lahti mõtestada andmeturvalisuse teema. Ettevõtete ja organisatsioonide jaoks, kes töötavad tundlike andmetega, on tehisintellekti assistentide kasutusele võtmisel neli kriitilist riskivaldkonda: privaatsus, vastavus regulatsioonidele, infrastruktuuri ja AI mudelite endi turvalisus. Need määravad sageli, kas ja kuidas organisatsioon saab AI-lahendusi kasutada.
Andmeturvalisuse ja privaatsuse riskid
Kõige kriitilisem risk on tundliku info tahtmatu leke tehisintellekti süsteemi. Problemaatiline on see, et vestlusesse võivad sattuda nii isikuandmed kui ka ärisaladused. Intellektuaalomandi ja finantsinfo kaitse on samuti kriitilise tähtsusega - eriti arvestades, et tehisintellekti süsteemid töötlevad ja salvestavad sisestatud andmeid.
Vastavus regulatsioonidele
Teine kriitiline valdkond on vastavus regulatsioonidele. Ettevõtted peavad järgima GDPR-i ning muid valdkonnapõhiseid regulatsioone. Rikkumiste tagajärjed on karmid - trahvid võivad ulatuda 4 protsendini ettevõtte käibest. Veelgi olulisem võib olla mainekahju ning teatud valdkondades võib regulatsioonide rikkumine viia ka tegevuslubade peatamiseni.
Võrguturvalisus ja infrastruktuur
Kolmas oluline riskivaldkond on seotud tehnilise infrastruktuuriga. Ettevõtted vajavad turvalist võrguisolatsiooni ning kontrollitud juurdepääsu süsteemidele. Eriti oluline on integratsioon olemasolevate turvasüsteemidega, sest uute tehnoloogiate kasutuselevõtt ei tohiks nõrgestada juba toimivaid turvameetmeid.
Tehisintellekti süsteemi turvalisus
Neljas kriitiline valdkond puudutab tehisintellekti süsteemi endi turvalisust. Erilist tähelepanu vajab kaitse pahatahtlike rünnakute vastu, kus keelatud infot üritatakse välja meelitada või mudelite käitumist manipuleerida. Seetõttu on oluline, et AI mudelid oleksid kaitstud nii prompt injection tüüpi rünnakute kui ka muude manipulatsioonide eest.
Järgnevas peatükis uurimegi lähemalt, et kuidas Microsoft Copilot ja ChatGPT nende riskidega tegelevad.
Turvalisus luubi alla - kumb on siis parem?
Olles teinud selgeks peamised turvalisusega seotud riskivaldkonnad, vaatame nüüd detailselt, kuidas kaks ettevõtetele mõeldud AI abimeest erinevaid riske maandavad.
Kasutajate haldus ja ligipääsu kontroll
AI tööriistade rakendamisel ettevõttes on kasutajate autentimine ja õiguste haldus esimene kriitilise tähtsusega turvakiht. See määrab, kes ja millistel tingimustel saab süsteemile ligi ning kuidas toimub igapäevane kasutajate haldus. Kuidas siis Copilot ja ChatGPT seda teemat lahendavad?
Kokkuvõttes pakuvad mõlemad lahendused täiesti adekvaatseid autentimise turvafunktsioone, kuid erineval moel. ChatGPT Team on paindlikum erinevate identiteedipakkujate osas, samas kui Microsoft Copilot on tugevamalt integreeritud ettevõtte autentimissüsteemidega läbi SAML SSO toe. Valik sõltub suuresti sellest, kas organisatsioon eelistab paindlikkust või sügavamat Microsoft ökosüsteemi integratsiooni.
Andmete edastamine üle avaliku interneti
Üha enam ettevõtte andmevahetust toimub üle avaliku interneti. Seega on kriitiline mõista, kuidas tehisintellekti assistendid tagavad andmete turvalise liikumise kasutaja arvutist pilveteenusesse.
Kokkuvõttes kasutavad mõlemad lahendused sarnast lähenemist - tugevat krüpteerimist üle avaliku interneti, mitte eraldatud võrguühendusi.
See tähendab, et turvalisus tagatakse läbi krüpteerimise, mitte füüsilise eraldatuse. Oluline on märkida, et see on tänapäeval levinud praktika ning vastab enamiku ettevõtete turvanõuetele.
Erinevused seisnevad üles laetud failide talletamises. ChatGPT failid laetakse üles OpenAI infrastruktuuri ja sellele kohalduvad siis vastavalt äriklientide üldtingimused ja privaatsustingimused. Copilot’i üleslaetud failid talletatakse kasutaja Onedrive’s ja sellele kohalduvad siis vastavad Microsofti kasutus- ja privaatsustingimused, kuid üldistatult võib vöelda, et Copilotisse üles laetud fail jääb ettevõtte või organisatsiooni “instantsi” või infrastruktuuri.
Microsoft Copilot arhitektuur. Allikas: https://learn.microsoft.com/en-us/copilot/privacy-and-protections
Andmete krüpteerimine
Krüpteerimine on üks peamisi meetodeid andmete kaitsmiseks nii nende liikumisel kui ka salvestamisel. Mõlemad tehisintellekti assistendid kasutavad siin tööstusharu standardlahendusi.
Kokkuvõttes kasutavad mõlemad lahendused tööstusharu standarditele vastavat krüpteerimist nii andmete liikumisel kui ka salvestamisel. See on valdkond, kus lahenduste vahel ei ole märkimisväärseid erinevusi, sest mõlemad järgivad parimaid praktikaid andmete kaitsmiseks läbi nende elutsükli.
OpenAI turvaportaal trust.openai.com
Vastavus regulatsioonidele, standarditele ja parimatele praktikatele
Rahvusvahelised andmekaitse regulatsioonid ja standardid on muutumas üha olulisemaks. Siin näeme kahe teenusepakkuja erinevat lähenemist: ChatGPT Teams näitab oma vastavust läbi konkreetsete sertifikaatide ja OpenAI spetsiifiliste vastavushindamiste, samas kui Microsoft Copilot toetub Azure'i platvormile, mis on üks enim sertifitseeritud pilveteenuseid maailmas.
Euroopa ettevõtete jaoks on eriti oluline märgata, et mõlemad lahendused on GDPR-iga vastavuses, kuid Microsoft pakub lisaks ka EU Data Boundary garantiid - see tähendab, et kõik andmed püsivad füüsiliselt Euroopa Liidu piires.
Sertifikaatide vaatenurgast paistab ChatGPT Teams silma spetsiifiliste sertifikaatidega nagu CSA STAR ja SOC. Microsoft Copilot ise eraldi sertifikaate ei oma, kuid see tuleneb asjaolust, et ta on osa suuremast Azure platvormist, millel on juba üle saja erineva sertifikaadi ja vastavushindamise.
Lihtsustatult võib öelda - mõlemad täidavad kõiki olulisi regulatiivseid nõudeid, aga teevad seda erinevalt. ChatGPT Teams tõestab seda läbi spetsiifiliste sertifikaatide, Microsoft Copilot läbi Azure platvormi üldise vastavuse.
Andmete säilitamine, kasutamine ja privaatsuspoliitikad
Tehisintellekti assistentide puhul on oluline mõista, kuidas säilitatakse nii vestlusajalugu kui ka üles laetud faile ning millistel tingimustel neid andmeid kustutatakse. Mõlemad teenusepakkujad on siin loonud selged põhimõtted.
Kokkuvõttes pakuvad mõlemad lahendused ettevõtetele sobivaid andmete säilitamise ja privaatsuse põhimõtteid.
Peamine erinevus seisneb failide säilitamise (füüsilises) asukohas - Microsoft Copilot hoiab faile ettevõtte enda Microsoft 365 keskkonnas, samas kui ChatGPT Team säilitab neid OpenAI taristus, järgides äriklientide tingimusi.
ChatGPT arhitektuur. Allikas: System and Organization Controls (SOC) 3 Report on OpenAI OpCo, LLC’s ChatGPT and API Services Relevant to Security and Confidentiality, June 2024
Andmelekete ennetamine (DLP)
Andmelekete ennetamine on üks kriitilisemaid aspekte tehisintellekti assistentide kasutamisel ettevõtte keskkonnas. See on eriti oluline, sest töötajad võivad tahtmatult sisestada tundlikku informatsiooni vestlustes tehisintellektiga. Lihtsas keeles öeldes on siinkohal peamine mure see, kuidas kontrollida ja takistada, et töötajad ei sisestaks tehisintellektiga vesteldes liiga kergekäeliselt tundlikku infot - olgu selleks ärisaladused, klientide andmed või sisemised dokumendid.
Microsoft Copilot ja ChatGPT Teams lahendavad selle väljakutse erinevalt.
Microsoft lähtub põhimõttest, et kui sul on juba Microsoft 365 keskkonnas seadistatud andmekaitse reeglid (näiteks, et teatud tüüpi dokumente ei tohi jagada), siis need samad reeglid kehtivad automaatselt ka Copiloti kasutamisel. Pole vaja midagi täiendavalt seadistada - näiteks, kui dokument on märgitud konfidentsiaalseks, siis seda ei saa ka Copilotile edastada.
ChatGPT Teams seevastu nõuab rohkem käsitööd. Lahendus toetub peamiselt sellele, et töötajad on koolitatud ja teavad, mida võib ja mida ei või jagada. Kui soovite täiendavat kaitset, saab sisse osta eraldi tööriista (näiteks Strac), mis aitab tuvastada ja blokeerida tundliku info jagamist.
Lihtsustatult võib öelda - kui teie ettevõttes on juba Microsoft 365 keskkond ja seal on turvaseaded paigas, siis Copilot "pärib" need automaatselt. ChatGPT Teams puhul peate turvameetmed eraldi üles ehitama.
Kasutajakoolitus ja õppematerjalid
Tehisintellekti assistentide turvaline kasutamine eeldab head ettevalmistust kahel tasandil: esiteks, teenusepakkuja enda töötajad peavad järgima rangeid turvanõudeid ning teiseks, ka lõppkasutajad vajavad selgeid juhiseid turvaliseks kasutamiseks.
Kokkuvõttes pakuvad mõlemad lahendused põhilisi juhendmaterjale, kuid kummalgi pole siin märkimisväärset eelist. Turvalisuse seisukohalt on see valdkond mõõduka mõjuga - edu sõltub suuresti sellest, kuidas:
- Organisatsioon ise korraldab oma töötajate koolituse
- Kui hästi suudavad kasutajad järgida turvalise kasutamise põhimõtteid
- Milliseid täiendavaid koolitusmaterjale ja -programme organisatsioon välja töötab
Tehisintellekti mudelite turvalisus
Oluline on mõista, et nii Microsoft Copilot kui ka ChatGPT Teams kasutavad samu OpenAI mudeleid ehk siis mõlemal on sama “mootor”. Erinevus tuleb sisse selles, milliseid täiendavaid turvasüsteeme kumbki neile "mootoritele" ümber ehitab.
Microsoft on valinud tee, kus nad kasutavad Azure AI Content Safety süsteemi, mis on nagu täiendav turvakiht. See jälgib pidevalt, kuidas keegi üritab tehisintellektiga suhelda ja blokeerib automaatselt katsed süsteemi ära petta (näiteks kui keegi üritab tehisintellekti "veenda" tegema midagi, mida ta ei tohiks).
ChatGPT Teams läheneb asjale teise nurga alt. Neil on laiem raamistik (Preparedness Framework), mis keskendub suurte riskide ennetamisele. Nad viivad regulaarselt läbi nn "punase meeskonna" teste - see tähendab, et spetsiaalsed eksperdid üritavad süsteemist turvaauke leida, et need siis kiiresti parandada.
Lihtsustatult võib öelda - Microsoft panustab automaatsele kaitsele, mis reaalajas blokeerib kahtlast käitumist. ChatGPT Teams seevastu panustab rohkem ennetavale kaitsele ja pidevale testimisele. Mõlemad lähenemised on põhjalikud, aga filosoofia on veidi erinev.
Lõplik tõde peitub detailides
Turvalisuse müüdid tehnoloogiamaailmas on sageli mustvalged - üks lahendus on "parem" või "turvalisem" kui teine. Tegelik pilt, nagu meie analüüs näitas, on märksa nüansirikkam.
Microsoft Copilot ja ChatGPT Team lähenevad ettevõtte andmete turvalisusele erinevalt, kuid mõlemad teevad seda läbimõeldult. Microsofti lähenemine põhineb olemasoleva turvaökosüsteemi kasutamisel ja edasi arendamise, samas kui OpenAI on ehitanud eraldiseisva, kuid sama põhjaliku turvaraamistiku.
Tähelepanuväärne on see, et paljudes kriitilistes valdkondades - krüpteerimine, ligipääsu kontroll, regulatiivne vastavus - pakuvad mõlemad lahendused võrreldavat kaitset. Erinevused tulevad esile pigem selles, kuidas need kaitsemeetmed on implementeeritud ja dokumenteeritud.
Lõppkokkuvõttes ei ole küsimus selles, kumb lahendus on "turvalisem", vaid selles, milline turvaarhitektuur sobib paremini teie organisatsiooni nõuetele ja töövoogudele. See on otsus, mis nõuab igas ettevõttes ja organisatsioonis põhjalikku analüüsi ja oma vajaduste selget kaardistamist, mitte pelgalt turundusmaterjalide või levinud arvamuste usaldamist.
Allikad
- https://learn.microsoft.com/en-us/copilot/overview
- https://openai.com/enterprise-privacy/
- https://learn.microsoft.com/en-us/copilot/privacy-and-protections
- https://openai.com/enterprise-privacy/
- https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-ai-security
- https://trust.openai.com/
- https://learn.microsoft.com/en-us/compliance/regulatory/offering-cis-benchmark
- https://openai.com/enterprise-privacy/
- https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-ai-security
Lisaks
https://www.strac.io/blog/chatgpt-security-risk-and-concerns-in-enterprise
https://fortune.com/2023/05/19/chatgpt-banned-workplace-apple-goldman-risk-privacy/
https://www.secureworld.io/industry-news/security-concerns-businesses-chatgpt
https://www.softkraft.co/chatgpt-enterprise/