7 syytä olla käyttämättä luovaa tekoälyä viestisovelluksissa

7 syytä olla käyttämättä luovaa tekoälyä viestisovelluksissa
Kaltaisesi lukijat auttavat tukemaan MUO:ta. Kun teet ostoksen käyttämällä sivustollamme olevia linkkejä, voimme ansaita kumppanipalkkion. Lue lisää.

Tekoälyssä edistytään ennennäkemättömällä tasolla, ja uutta kehitystä tehdään lähes viikoittain. Generatiiviset tekoälytyökalut, kuten ChatGPT, ovat nyt niin suosittuja, että ne integroidaan kaikkialle.





Mutta pitäisikö meidän? Tekoälyteknologian käyttäminen tuottavuuteen, koulutukseen ja viihteeseen on järkevää. Yritykset kuitenkin harkitsevat nyt sen sijoittamista suoraan viestisovelluksiimme, ja tämä voi osoittautua tuhoisaksi. Tässä seitsemän syytä.





PÄIVÄN VIDEON TEKEMINEN JATKA SISÄLLÖLLÄ VIERÄTÄ

1. AI Chatbotit taipumus hallusinoida

Jos olet käyttänyt ChatGPT, Bing tai Bard , tiedät, että generatiiviset AI-chatbotit yleensä 'halusinoivat'. Tekoälyhalusinaatioista on kyse, kun nämä chatbotit keksivät juttuja riittävien harjoitustietojen puutteen vuoksi käyttäjän pyytämässä kyselyssä.





Toisin sanoen ne välittävät väärää tietoa, mutta kuulostavat siitä luottavaiselta, ikään kuin se olisi tosiasia. Tämä on suuri ongelma, koska monet ihmiset eivät tarkista faktoja chatbotia käyttäessään ja uskovat sen olevan oletusarvoisesti tarkka. Se on yksi suurimmista virheitä, joita tulee välttää käytettäessä tekoälytyökaluja .

Viestisovelluksiin laitettuna sen aiheuttama haita on vieläkin suurempi, koska ihmiset saattavat käyttää sitä (tahallisesti tai tahattomasti) väärän tiedon levittämiseen kontaktien keskuudessa ja sosiaalisessa mediassa, propagandan levittämiseen ja kaikukammioiden edistämiseen.



2. Ihmiset eivät pidä bottien kanssa puhumisesta

  Pieni oranssi ja hopea robotti istuu kokolattiamatolla kannettavan tietokoneen edessä.
Kuvan luotto: graphicstudio/ Vecteezy

Ajattele, kuinka ärsyttävää on, kun yrität ottaa yhteyttä yrityksen asiakastukeen ja sinut pakotetaan keskustelemaan chatbotin kanssa todellisen johtajan sijaan, joka voi todella ymmärtää ongelmasi vivahteet ja antaa asianmukaista ohjausta.

Sama koskee henkilökohtaisia ​​keskusteluja. Kuvittele puhuvasi ystäväsi kanssa, ja puolivälissä huomaat, että he ovat käyttäneet tekoälyä vastatakseen viesteihisi koko tämän ajan sen sijaan, että he tekisivät sitä yksin omien ajatustensa ja mielipiteidensä perusteella.





Jos olet kuten useimmat ihmiset, tunnet itsesi välittömästi loukkaantuneeksi ja koet tekoälyn käytön yksityisessä keskustelussa tunteettomaksi, kammottavaksi ja jopa passiivis-aggressiiviseksi, ikään kuin toinen henkilö ei pitäisi sinua aikansa, huomionsa ja empatia.

Tekoälyn käyttäminen esimerkiksi sähköpostien kirjoittamiseen on ymmärrettävää, koska se on ammatillista vuorovaikutusta, mutta sen käyttäminen henkilökohtaisissa keskusteluissa ei ole jotain, jota kukaan haluaisi rohkaista. Kun tekniikan uutuus hiipuu, on epäkohteliasta käyttää sitä tässä yhteydessä.





3. AI ei voi kopioida ainutlaatuista sävyäsi

Generatiiviset tekoälytyökalut antavat jo nykyään mahdollisuuden muuttaa viestisi tonaalisuutta, kuten muodollista, iloista tai neutraalia, riippuen siitä, kenelle kirjoitat ja miten haluat tavata. Magic Compose Google Messagesissa esimerkiksi sallii sinun tehdä saman.

Vaikka se on hyvä, huomaa, että nämä sävyt opetetaan asetettujen harjoitustietojen eikä henkilökohtaisen chat-historiasi perusteella, joten se ei voi kopioida ainutlaatuista tonaliteettiasi tai tavallisesti käyttämiäsi hymiöitä.

Et ehkä välitä tästä paljon, varsinkin jos käytät tekoälyä yksinkertaisten työsähköpostien kirjoittamiseen, joissa kaikki käyttävät enemmän tai vähemmän samaa muodollista tonaalisuutta. Mutta sillä on paljon enemmän merkitystä kuin saatat ymmärtää, kun käytät sitä ystävillesi ja perheellesi puhumiseen viestintäsovelluksessa.

Ennen kuin AI-työkalut antavat sinulle mahdollisuuden kouluttaa heidän kielimalliaan chat-historiasi perusteella, ne eivät pysty jäljittelemään ainutlaatuista murrettasi ja eksentriisyyttäsi. Tämä haaste ei kuitenkaan ole niin vaikea ratkaista, joten saatamme nähdä sen toteutuvan pian.

4. Hyvien kehotteiden kirjoittaminen vie aikaa

  Mies lähettää tekstiviestejä matkapuhelimeen

Haluttujen tulosten saaminen AI-chatbotista riippuu suuresti kehotteen laadusta. Jos kirjoitat huonon kehotteen, saat huonon vastauksen ja joudut tarkentamaan kehotetta, kunnes saat tyydyttävän tuloksen.

Tämä prosessi on järkevä, kun haluat kirjoittaa pitkää sisältöä, mutta se on erittäin tehoton, kun kirjoitat useita lyhyitä vastauksia epävirallisessa keskustelussa.

Aika, joka saattaa viedä kehotteiden tarkentamiseen ja käyttökelpoisten vastausten saamiseen, on useimmissa tapauksissa pidempi kuin aika, joka olisi mennyt, jos olisit kirjoittanut viestit itse.

Windows 7 vs Windows 10 suorituskyky 2018

5. Tekoäly voi tuottaa loukkaavia tuloksia

Tarkkuuden lisäksi harha on yksi niistä generatiivisen tekoälyn suurimmat ongelmat . Jotkut ihmiset pitävät tekoälyä puolueettomana, koska sillä ei ole omia motiivejaan. Näiden tekoälytyökalujen takana olevat ihmiset ovat kuitenkin viime kädessä ihmisiä, joilla on omat ennakkoluulonsa.

Toisin sanoen järjestelmään paisutetaan harhaa. Tekoäly ei luonnostaan ​​ymmärrä, mitä pidetään loukkaavana ja mikä ei, joten se voidaan esimerkiksi kouluttaa olemaan puolueellinen tiettyjä ihmisryhmiä tai tiettyjä kulttuureja kohtaan, mikä tuottaa loukkaavia tuloksia prosessissa.

6. AI ei ehkä ymmärrä sarkasmia tai huumoria

Tekoälyn ymmärrys puhekuvioista, kuten ironiasta ja metaforasta, paranee ajan myötä, mutta se on vielä kaukana pisteestä, jossa sitä voitaisiin käyttää keskustelussa huumorin tunnistamiseen. Kun esimerkiksi Googlen Bardia pyydettiin sarkastiseksi, tuloksena oli osuma-or-miss.

  Google Bard -chatbot yrittää olla sarkastinen

Joissakin tapauksissa se oli todella hauskaa ja soitti sarkasmin kanssa. Mutta muissa tapauksissa se joko palasi takaisin hassuun evästeen leikkaavaan vastaukseen tai yksinkertaisesti kieltäytyi osallistumasta keskusteluun kokonaan sanoen, että koska se on vain LLM, se ei voi auttaa minua kyselyssäni.

7. Tekoälyyn luottaminen voi johtaa huonoon viestintään

Toinen hienovarainen mutta merkittävä ongelma luovan tekoälyn integroinnissa viestintäsovelluksiin on se, kuinka se voi vaikuttaa kykyymme kommunikoida. Jos luotamme yhä enemmän tekoälyyn keskustelemaan toistensa kanssa, se voi haitata kykyämme siihen kouluttaa tunneälyämme ja sosiaalisia taitoja.

Tässä on kysymys siitä, että mitä enemmän ulkoistamme sosiaalisia tarpeitamme tekoälylle, sitä huonommin tulemme viestimään ideoista orgaanisten keinojen kautta. Toisin sanoen mitä enemmän käytät tekoälyä puhuaksesi kontaktiesi kanssa, sitä todennäköisemmin saatat huonontaa suhteesi laatua.

Kaikessa ei tarvitse olla tekoälyä

Uuden teknologian myötä olemme usein niin kiireisiä miettiessämme, miten sitä käytetään, ettemme voi kiistellä, pitäisikö meidän ylipäätään käyttää sitä.

Vaikka on täysin järkevää käyttää generatiivista tekoälyä sähköpostien kirjoittamiseen, ideoiden pohtimiseen tai kuvien luomiseen esityksiä varten, sen integrointi viestisovelluksiin herättää paljon kritiikkiä.