3 Chatbotin tietosuojariskiä ja huolenaiheita, joista sinun pitäisi tietää

3 Chatbotin tietosuojariskiä ja huolenaiheita, joista sinun pitäisi tietää
Kaltaisesi lukijat auttavat tukemaan MUO:ta. Kun teet ostoksen käyttämällä sivustollamme olevia linkkejä, voimme ansaita kumppanipalkkion. Lue lisää.   Riippulukko ja näppäimistön näppäimet hajallaan

Chatbotit ovat olleet olemassa jo vuosia, mutta suurten kielimallien, kuten ChatGPT ja Google Bard, nousu on antanut chatbot-teollisuudelle uuden elämän.





Miljoonat ihmiset käyttävät nyt tekoäly-chatbotteja maailmanlaajuisesti, mutta on olemassa tärkeitä tietosuojariskejä ja huolenaiheita, jotka on pidettävä mielessä, jos haluat kokeilla jotakin näistä työkaluista.





1. Tiedonkeruu

Useimmat ihmiset eivät käytä chatbotteja vain tervehtimään. Nykyaikaiset chatbotit on suunniteltu käsittelemään ja vastaamaan monimutkaisiin kysymyksiin ja pyyntöihin, ja käyttäjät sisällyttävät usein kehotteisiinsa paljon tietoa. Vaikka kysyisit vain yksinkertaisen kysymyksen, et todellakaan halua sen menevän keskustelusi ulkopuolelle.





Mukaan OpenAI:n tukiosio , voit poistaa ChatGPT-chat-lokeja milloin tahansa, ja lokit poistetaan sitten pysyvästi OpenAI:n järjestelmistä 30 päivän kuluttua. Yritys kuitenkin säilyttää ja tarkistaa tietyt chat-lokit, jos ne on merkitty haitallisen tai sopimattoman sisällön vuoksi.

Toinen suosittu AI-chatbot, Claude, pitää myös kirjaa aiemmista keskusteluistasi. Anthropicin tukikeskus toteaa, että Claude seuraa 'kehotteitasi ja tulosteitasi tuotteessa tarjotakseen sinulle johdonmukaisen tuotekokemuksen ajan mittaan säätimiesi mukaisesti.' Voit poistaa keskustelusi Clauden kanssa, jolloin se unohtaa, mistä olet puhunut, mutta tämä ei tarkoita, että Anthropic poistaisi lokisi välittömästi järjestelmistään.



Tämä tietysti herättää kysymyksen: säilytetäänkö tietojani vai ei? Käyttävätkö ChatGPT tai muut chatbotit tietojani?

Mutta huolet eivät lopu tähän.





Kuinka ChatGPT oppii?

Tiedon tarjoamiseksi suuria kielimalleja koulutetaan valtavilla tietomäärillä. Mukaan Science Focus Pelkästään ChatGPT-4:lle syötettiin koulutusjaksonsa aikana 300 miljardia sanaa tietoa. Tämä ei ole otettu suoraan muutamista tietosanakirjoista. Pikemminkin chatbot-kehittäjät käyttävät massaa Internetistä saatavaa tietoa malliensa kouluttamiseen. Tämä voi sisältää tietoja kirjoista, elokuvista, artikkeleista, Wikipedia-merkinnöistä, blogikirjoituksista, kommenteista ja jopa arvostelusivustoista.

Muista, että chatbotin kehittäjän tietosuojakäytännöstä riippuen joitain edellä mainituista lähteistä ei välttämättä käytetä koulutuksessa.





Monet ovat kritisoineet ChatGPT:tä väittäen, että se on painajainen yksityisyyden kannalta ChatGPT:hen ei voi luottaa . Miksi näin on?

Täällä asiat hämärtyvät. Jos kysyt ChatGPT-3.5:ltä suoraan, onko sillä pääsy tuotearvosteluihin tai artikkelikommentteihin, saat selkeän negatiivisen vastauksen. Kuten alla olevasta kuvakaappauksesta näet, GPT-3.5 ilmoittaa, että sille ei annettu pääsyä käyttäjien artikkelien kommentteihin tai tuotearvosteluihin koulutuksessaan.

  kuvakaappaus chatgpt-3.5-keskustelusta

Sen sijaan se koulutettiin käyttämällä 'monipuolista tekstiä Internetistä, mukaan lukien verkkosivustot, kirjat, artikkelit ja muu julkisesti saatavilla oleva kirjallinen materiaali syyskuuhun 2021 asti'.

Mutta onko sama asia GPT-4:n kohdalla?

Kun kysyimme GPT-4:ltä, meille kerrottiin, että 'OpenAI ei käyttänyt tiettyjä käyttäjien arvosteluja, henkilötietoja tai artikkelikommentteja' chatbotin koulutusjakson aikana. Lisäksi GPT-4 kertoi meille, että sen vastaukset luodaan 'datassa [se] koulutetuissa malleista, jotka koostuvat pääasiassa kirjoista, artikkeleista ja muusta tekstistä Internetistä.'

Kun tutkimme lisää, GPT-4 väitti, että tietty sosiaalisen median sisältö voidaan todellakin sisällyttää sen koulutustietoihin, mutta tekijät pysyvät aina nimettöminä. GPT-4 totesi nimenomaisesti, että 'Vaikka Redditin kaltaisten alustojen sisältö oli osa koulutusdataa, [sillä ei] ole pääsyä tiettyihin kommentteihin, viesteihin tai mihinkään tietoon, joka voidaan linkittää takaisin yksittäiseen käyttäjään.'

Toinen merkittävä osa GPT-4:n vastauksesta on seuraava: 'OpenAI ei ole nimenomaisesti listannut kaikkia käytettyjä tietolähteitä.' Tietenkin OpenAI:n olisi vaikeaa luetella 300 miljardin sanan arvoisia lähteitä, mutta tämä jättää tilaa spekuloinnille.

Vuonna an Ars Technican artikkeli , todettiin, että ChatGPT kerää 'henkilökohtaisia ​​tietoja, jotka on saatu ilman lupaa'. Samassa artikkelissa mainittiin kontekstuaalinen eheys, käsite, joka viittaa vain jonkun tiedon käyttämiseen siinä kontekstissa, jossa niitä alun perin käytettiin. Jos ChatGPT rikkoo tätä kontekstuaalista eheyttä, ihmisten tiedot voivat olla vaarassa.

Toinen huolenaihe tässä on OpenAI:n noudattaminen Yleinen tietosuoja-asetus (GDPR) . Tämä on Euroopan unionin toimeenpanema asetus kansalaisten tietojen suojaamiseksi. Useat Euroopan maat, mukaan lukien Italia ja Puola, ovat käynnistäneet ChatGPT:tä koskevia tutkimuksia sen GDPR-vaatimustenmukaisuuden vuoksi. ChatGPT oli lyhyen aikaa jopa kielletty Italiassa yksityisyydensuojan vuoksi.

OpenAI on aiemmin uhannut vetäytyä EU:sta suunniteltujen tekoälysäädösten vuoksi, mutta tämä on sittemmin peruttu.

ChatGPT saattaa olla tämän hetken suurin AI-chatbot, mutta chatbotin tietosuojaongelmat eivät ala eivätkä lopu tästä palveluntarjoajasta. Jos käytät hämärää chatbottia, jonka tietosuojakäytäntö on heikko, keskustelujasi voidaan käyttää väärin tai erittäin arkaluonteisia tietoja voidaan käyttää sen koulutustiedoissa.

2. Tietojen varkaus

Kuten kaikki verkkotyökalut tai -alustat, chatbotit ovat alttiina tietoverkkorikollisuudelle. Vaikka chatbot teki kaikkensa suojellakseen käyttäjiä ja heidän tietojaan, on aina mahdollisuus, että taitava hakkeri onnistuu tunkeutumaan sen sisäisiin järjestelmiin.

Jos tietty chatbot-palvelu tallensi arkaluontoisia tietojasi, kuten premium-tilauksesi maksutietoja, yhteystietoja tai vastaavia, tämä voidaan varastaa ja sitä voidaan käyttää hyväksi kyberhyökkäyksen sattuessa.

Tämä pätee erityisesti, jos käytät vähemmän turvallista chatbotia, jonka kehittäjät eivät ole investoineet riittävään suojaukseen. Sen lisäksi, että yrityksen sisäiset järjestelmät voidaan hakkeroida, oma tilisi on vaarassa joutua vaaraan, jos sillä ei ole kirjautumishälytyksiä tai todennuskerrosta.

Nyt kun AI-chatbotit ovat niin suosittuja, kyberrikolliset ovat luonnollisesti ryntäneet käyttämään tätä alaa huijauksiinsa. Väärennetyt ChatGPT-verkkosivustot ja -laajennukset ovat olleet suuri ongelma siitä lähtien, kun OpenAI:n chatbot tuli valtavirtaan vuoden 2022 lopulla, jolloin ihmiset joutuivat huijauksiin ja luovuttavat henkilökohtaisia ​​tietoja legitiimiyden ja luottamuksen varjolla.

Maaliskuussa 2023 MUO raportoi a fake ChatGPT Chrome-laajennus, joka varastaa Facebook-kirjautumiset . Laajennus voi hyödyntää Facebookin takaovea hakkeroidakseen korkean profiilin tilejä ja varastaakseen käyttäjien evästeitä. Tämä on vain yksi esimerkki lukuisista vale ChatGPT-palveluista, jotka on suunniteltu tietämättömien uhrien huijaamiseen.

3. Haittaohjelmatartunta

Jos käytät hämärää chatbottia huomaamattasi, saatat löytää chatbotin tarjoavan sinulle linkkejä haitallisille verkkosivustoille. Ehkä chatbot on ilmoittanut sinulle houkuttelevasta lahjasta tai tarjonnut lähteen jollekin väitteelleen. Jos palvelun ylläpitäjillä on laittomia aikeita, alustan koko tarkoitus voi olla haittaohjelmien ja huijausten levittäminen haitallisten linkkien kautta.

Vaihtoehtoisesti hakkerit voivat vaarantaa laillisen chatbot-palvelun ja käyttää sitä haittaohjelmien levittämiseen. Jos tämä chatbot sattuu olemaan hyvin ihmisiä, tuhannet tai jopa miljoonat käyttäjät altistuvat tälle haittaohjelmalle. Väärennettyjä ChatGPT-sovelluksia on ollut jopa Apple App Storessa , joten on parasta kulkea varovasti.

Yleensä sinun ei pitäisi koskaan napsauttaa chatbotin aiemmin tarjoamia linkkejä käyttää sitä linkkien tarkistussivuston kautta . Tämä voi tuntua ärsyttävältä, mutta on aina parasta varmistaa, että sivusto, jolle sinut ohjataan, ei ole haitallinen.

miten näen kuvan talostani Google Earthissa?

Älä myöskään koskaan asenna chatbotin laajennuksia ja laajennuksia tarkistamatta ensin niiden laillisuutta. Tutki vähän sovellusta nähdäksesi, onko se arvioitu hyvin, ja tee myös haku sovelluksen kehittäjältä nähdäksesi, löydätkö jotain hämärää.

Chatbotit eivät koske tietosuojaongelmia

Kuten useimmat verkkotyökalut nykyään, chatbotteja on toistuvasti kritisoitu niiden mahdollisista tietoturva- ja tietosuojaan liittyvistä sudenkuopat. Olipa kyseessä sitten chatbot-palveluntarjoaja, joka tekee kärkeä käyttäjien turvallisuuden suhteen, tai jatkuvat kyberhyökkäysten ja huijausten riskit, on tärkeää, että tiedät, mitä chatbot-palvelusi kerää sinusta ja onko se käyttänyt riittäviä turvatoimia.