Tekoälyfirma varoitti uudesta sovelluksestaan: käyttäjä voi jäädä tunnetasolla riippuvaiseksi
Voisiko Her-elokuvan juoni käydä toteen todellisessa elämässä? Vai ovatko elokuvan tapahtumat jo jollekulle osittain sattuneet?
OpenAI:n GPT-4o-tekoälymallista ilmaantui maailmalle videoita aiemmin tänä vuonna. Tekoälymalli hämmästytti paitsi ”älykkyydellään” niin myös äänimallinnuksellaan. Puhe oli täysin ihmismäistä.
Kyseiselle tekoälylle voi jutella niitä näitä, ja se vaikuttaa vastaavaan takaisin järkevään tapaan. Aidon kuuloisessa mutta keinotekoisessa keskustelukumppanissa nähdään myös riskejä.
OpenAI myönsi vaaran, että luonnollinen äänitila voi johtaa ”tunnetason riippuvuuteen” tekoälystä sekä ”vääränlaiseen luottamukseen”. Taustalla vaikuttaa ”antropomorfisointi”.
– Antropomorfisointi tarkoittaa ihmisen kaltaisten käyttäytymismallien ja ominaisuuksien antamista ei-inhimillisille entiteeteille kuten tekoälymalleille, OpenAI kertoo raportissaan.
– GPT-4o:n ääniominaisuudet, jotka sallivat ihmismäisen vuorovaikutuksen mallin kanssa, voivat lisätä riskejä.
OpenAI kertoo huomanneensa testeissään, että koekäyttäjät ovat ainakin vaikuttaneet muodostavan jonkinmoisen siteen tekoälymalliin. OpenAI sanookin, että pitkän aikavälin vaikutuksia on tutkittava. Alla esimerkkivideo GPT-4o-tekoälymallista.
LUE MYÖS: Pelit ovat jonkin uuden ja hienon kynnyksellä – Nvidia ACE -tekoälytekniikasta uusi maistiainen