„Bėgimas žirklėmis yra kardio pratimas, galintis padidinti širdies susitraukimų dažnį ir reikalaujantis susikaupimo bei susikaupimo“, – sakoma naujoje „Google“ AI paieškos funkcijoje. „Kai kurie sako, kad tai taip pat gali pagerinti jūsų poras ir suteikti jėgų.”
„Google“ AI funkcija gavo šį atsakymą iš svetainės, pavadintos „Little Old Lady Comedy“, kuri, kaip aišku iš pavadinimo, yra komedijos tinklaraštis. Tačiau keiksmažodžiai yra tokie juokingi, kad kartu su kitomis akivaizdžiai neteisingomis AI apžvalgomis „Google“ pasklido socialinėje žiniasklaidoje. Iš tikrųjų kasdieniai vartotojai dabar sujungia šiuos produktus socialinėje žiniasklaidoje.
Kibernetinio saugumo srityje kai kurios įmonės samdys „raudonąsias komandas“ – etiškus įsilaužėlius, kurie bando pažeisti jų produktus, tarsi būtų blogi veikėjai. Jei raudonoji komanda aptinka pažeidžiamumą, įmonė gali ją ištaisyti prieš išsiunčiant produktą. Prieš išleisdama AI produktą „Google“ paieškoje, „Google“ neabejotinai atliko tam tikrą „raudonųjų komandų“ formą, kuri, kaip manoma, apdoroja trilijonus užklausų per dieną.
Todėl stebina, kai daug išteklių turinti įmonė, tokia kaip „Google“, vis tiek pristato produktus su akivaizdžiais trūkumais. Štai kodėl dabar jis tapo memu, pasakojančiu apie AI produktų gedimus, ypač šiuo metu, kai dirbtinis intelektas vis labiau paplitęs. Tai matėme su bloga rašyba ChatGPT, vaizdo įrašų generatorių nesugebėjimu suprasti, kaip žmonės valgo spagečius, ir Grok AI naujienų santraukas X, kurios, kaip ir Google, nesupranta satyros. Tačiau šie memai iš tikrųjų gali būti naudingi atsiliepimai įmonėms, kurioms ir bandančioms dirbtinį intelektą.
Nepaisant didelio šių trūkumų pobūdžio, technologijų įmonės dažnai sumenkina jų poveikį.
„Pavyzdžiai, kuriuos matėme, paprastai yra labai neįprasti užklausos ir neatspindi daugumos žmonių patirties“, – „Google“ sakė „TechCrunch“ el. paštu išsiųstame pareiškime. „Prieš pradėdami naudoti šią naują patirtį, atlikome išsamius bandymus ir naudosime šiuos atskirus pavyzdžius, kai toliau tobulinsime savo sistemas.
Ne visi vartotojai mato tuos pačius AI rezultatus, o kai pasirodo ypač blogas AI pasiūlymas, problema dažnai jau buvo išspręsta. Neseniai išplitusiu atveju „Google“ pasiūlė, kad jei gaminate picą, bet sūris nelimpa, į padažą galite įpilti maždaug aštuntą stiklinės klijų, kad „suteiktų daugiau lipnumo“. Kaip paaiškėjo, AI renka šį atsakymą iš vienuolikos metų senumo „Reddit“ komentaro iš vartotojo, vardu „f––Smith“.
Tai ne tik neįtikėtina klaida, bet ir rodo, kad AI turinio pasiūlymai gali būti pervertinti. „Google“ sudarė 60 milijonų dolerių sutartį su „Reddit“, kad licencijuotų savo turinį, pavyzdžiui, AI modelių mokymui. „Reddit“ praėjusią savaitę pasirašė panašų susitarimą su „OpenAI“, o „Automattic“ ypatybės „WordPress.org“ ir „Tumblr“, kaip sklando gandai, derasi dėl duomenų pardavimo „Midjourney“ ir „OpenAI“.
„Google“ nuopelnas yra tai, kad daugelis socialinėje žiniasklaidoje sklindančių klaidų kyla dėl netradicinių paieškų, skirtų dirbtiniam intelektui sugadinti. Bent jau tikiuosi, kad niekas rimtai neieško „bėgimo su žirklėmis naudos sveikatai“. Tačiau kai kurie iš šių nesklandumų yra rimtesni. Mokslo žurnalistė Erin Ross paskelbė X, kad „Google“ išspjauna neteisingą informaciją apie tai, ką daryti, jei jums įkando barškuolė.
Rosso įrašas, kuris sulaukė daugiau nei 13 000 žmonių, rodo, kad dirbtinis intelektas rekomendavo užtepti žnyplę ant žaizdos, perpjauti žaizdą ir išsiurbti nuodus. Pasak JAV miškų tarnybos, tai viskas, ką turėtumėte ne daryk, jei tau įkąs. Tuo tarpu „Bluesky“ svetainėje autorius T Kingfisher sustiprino įrašą, kuriame matyti, kad „Google“ Dvyniai nuodingą grybą klaidingai identifikuoja kaip įprastą baltąjį grybą – įrašo ekrano kopijos išplito kitose platformose kaip įspėjamasis pasakojimas.
Kai blogas AI atsakas išplinta, AI gali dar labiau susipainioti dėl naujo turinio apie temą, kuris atsiranda dėl to. Trečiadienį „New York Times“ žurnalistas Aricas Toleris paskelbė X ekrano kopiją, kurioje rodoma užklausa, kurioje klausiama, ar šuo kada nors žaidė NHL. AI atsakymas buvo teigiamas – dėl tam tikrų priežasčių AI pavadino Calgary Flames žaidėją Martiną Pospisilį šunimi. Dabar, kai pateikiate tą pačią užklausą, AI pateikia straipsnį iš „Daily Dot“ apie tai, kaip „Google“ AI nuolat galvoja, kad šunys sportuoja. AI yra maitinamas savo klaidomis, nuodijant jį toliau.
Tai yra būdinga šių didelio masto AI modelių mokymo internete problema: kartais žmonės internete meluoja. Tačiau kaip ir nėra taisyklės, neleidžiančios šuniui žaisti krepšinį, taip, deja, nėra taisyklės, neleidžiančios didelėms technologijų įmonėms tiekti blogus dirbtinio intelekto produktus.
Kaip sakoma: šiukšlės į, šiukšlės išeina.