• Galvenais
  • Citi
  • AI tagad kļūst tuvāk Star Trek: TNG datiem, jo ​​zina, vai varat tam uzticēties

AI tagad kļūst tuvāk Star Trek: TNG datiem, jo ​​zina, vai varat tam uzticēties

Kādu Filmu Redzēt?
 
>

Tas, iespējams, nav tik pašapzinīgs kā dati no Zvaigžņu ceļš: TNG (vēl), jo īpaši tāpēc, ka šis droid varētu labāk rūpēties par kaķi nekā daži cilvēki, bet AI tagad ir sapratis, kad tas nav uzticams.



viena zivs divas zivis sarkanas zivis zilas zivis by dr. seuss

To, ko tagad sauc dziļa pierādījumu regresija ir izlīdzinājis AI pašapziņu. Tā zinās, kad tai ir lielāka iespēja kļūdīties prognozēšanā, pamatojoties uz aplūkoto datu ticamību. Nākotnes prognozes, visticamāk, izdosies, ja tās ietekmēs rūpīgāki un precīzāki dati. Pretējais nozīmē, ka lietas, iespējams, notiks nepareizi - un AI to var nojaust. Kad tā novērtē savu noteiktību par kaut ko, šī noteiktība palielināsies un samazināsies atkarībā no datiem, kas tiek ievadīti. Pēc tam AI var noteikt risku vai nenoteiktību ar 99% precizitāti.

Šķiet, ka pat Pikārs būtu pārsteigts - bet pagaidiet. Pašapzinīgajiem robotiem ir tikai viens trūkums, un tas ir tas, ka 99% nav pilnīga noteiktība neatkarīgi no tā, cik tas ir tuvu. Tikai 1% izslēgšana var nozīmēt katastrofu potenciāli dzīvībai bīstamos scenārijos, sākot ar autonomas automašīnas vadīšanu un beidzot ar operāciju. Baisi.







Lai gan [dziļa pierādījumu regresija] sniedz vairākas priekšrocības salīdzinājumā ar esošajām pieejām, tās galvenie ierobežojumi ir regulēšanas koeficienta pielāgošana un maldinošu pierādījumu efektīva noņemšana, kalibrējot nenoteiktību, teica MIT Ph.D. students Aleksandrs Amini , kurš vadīja pētījumu, kuru viņš prezentēs nākamā mēneša NeurIPS konferencē.

Tas, ko Amini un viņa komanda ir spējuši paveikt, joprojām ir diezgan ievērojams. Pirms tam AI izmantošana nenoteiktības novērtēšanai bija ne tikai dārga, bet arī pārāk lēna, lai pieņemtu lēmumus, kas jāpieņem sekundes daļās. Neironu tīkli var būt tik milzīgi, ka var paiet mūžīgi, līdz viņi aprēķina atbildi, un gaidīšana, lai uzzinātu pārliecības līmeni, būtu pārāk ilga, lai pat apgrūtinātu pūļu ieguldīšanu. Būtu bezjēdzīgi kaut ko tādu izmantot sevī -braucoša automašīna, kurai jāzina, kurš pagrieziens ir jāveic uzreiz. Process ir strauji pavirzījies uz priekšu ar dziļu pierādījumu regresiju. Šim neironu tīklam ir jādarbojas tikai vienu reizi, lai noskaidrotu nenoteiktības līmeni.

Uzminot nenoteiktību modelī, ko AI jau ir apguvis, tas var mums aptuveni pateikt, cik plaša ir kļūdu rezerve. AI izmanto pierādījumus, lai pamatotu savu aprēķinu. Šie pierādījumi ietver jebkuru nenoteiktību, kas slēpjas neironu tīkla tikko analizētajos datos vai tā pašapziņā par to, cik pārliecināts tas ir par savu lēmumu. Amini un viņa komanda pārbaudīja dziļo pierādījumu regresijas metodi, apmācot AI, lai novērtētu katra attēla pikseļa dziļumu. Dziļuma uztvere var nozīmēt dzīvību vai nāvi operācijā, kurai nepieciešams noņemt audzēju, kas var atrasties dziļi ķermeņa iekšienē un ko citādi ir grūti saskatīt.

AI galvenokārt bija precīzs, bet tas sajauca reiz tas tika padots ar attēliem, kurus bija grūtāk atcerēties. Vismaz bija viena lieta, par kuru tā bija konsekventa: saskaroties ar attēliem, kas tai radīja grūtības, tā bez šaubām informēja komandu par savu nenoteiktību. Tā noteiktā kļūdu rezerve var vismaz iemācīt pētniekiem, kā uzlabot šo modeli. Tā spēja atpazīt Photoshoppēta attēlus paver arī iespēju atpazīt dziļas viltības. Cilvēkiem vienkārši jāapzinās, ka šīs robotu smadzenes joprojām ir kļūdainas, un mēs nevaram tām uzticēties vairāk, kā tās var uzticēties sev.

Mēs uzskatām, ka ir nepieciešama turpmāka izmeklēšana, lai atklātu alternatīvus veidus, kā noņemt maldinošus pierādījumus, - teica Amini .

Tas nozīmē, ka AI, kas spēj domāt, izmantojot dziļu pierādījumu regresiju, ir diezgan uzticama, ja vien nepareizas atbildes rezultāts nebūtu nāvējošs.