La conferința Google PAIR, Karrie Karahalios va vorbi despre modul în care oamenii dau sens lumii lor și trăiesc online. (Aceasta este o discuție bogată în informații, iar Karrie vorbește repede, așa că această postare este foarte specială de încredere. Ne pare rău. Dar este minunată. Google lucrează cu ea.)

Acest lucru

NOTĂ: Live-blogging. A greși lucrurile. Puncte lipsă. Omiterea informațiilor cheie. Introducerea măcinării artificiale. Sublinierea excesivă a problemelor mici. Parafrazând prost. Nu rulează un control ortografic. Gândind ideile și cuvintele altor persoane. Tu esti avertizat, oameni.

Astăzi, spune ea, oamenii vor să înțeleagă cum le vin informațiile pe care le văd. De ce variază? „De ce primiți răspunsuri diferite în funcție de rețeaua dvs. wifi? ”De ce primiți răspunsuri diferite în funcție de rețeaua dvs. wifi? Acești algoritmi afectează, de asemenea, fluxurile noastre personale, de exemplu, Instagram și Twitter; Twitter îl articulează, dar nu vă spune cum decide ce veți vedea

În 2012, Christian Sandvig și [prenumele ratat] Holbrook se întrebau de ce primesc reclame ciudate personalizate în fluxurile lor. Cei mai mulți oameni nu știau că feed-urile lor erau curate: doar 38% erau conștienți de acest lucru în 2012. Cei care erau conștienți au devenit conștienți prin „teorii populare”: explicații neautorizate care le permit să dea sens alimentelor lor. Patru teorii:

1. Teoria angajamentului personal: dacă vă place și faceți clic pe cineva, cu atât mai mult din acea persoană veți vedea în feedul dvs. Unora le-au plăcut fotografiile copiilor prietenilor lor, dar s-au săturat de asta.

2. Teoria populației globale: dacă mulți oameni doresc, va apărea pe mai multe feed-uri de oameni.

3. Narcisist: vei vedea mai multe de la oameni care sunt ca tine.

4. Teoria formatului: unele tipuri de lucruri sunt împărtășite mai mult, de exemplu, fotografii sau filme. Dar oamenii nu au reușit

Kempton a studiat termostatele în anii 1980. Oamenii fie s-au gândit la asta ca la un comutator sau feedback, fie ca la o supapă. Se uită la tiparele lor de utilizare. Indiferent de ce teorie, ei au făcut să funcționeze pentru ei.

Ea arată o pagină Orbitz care scuipă zboruri. Nu vezi nimic sub capotă. Dar cineva a aflat că, dacă folosești un Mac, prețurile tale erau mai mari. Oamenii au început să folosească modele care arată cusăturile. Așadar, grupul Karrie a creat o vizualizare care arăta fluxul și tot conținutul din rețeaua lor, care era de trei ori mai mare decât ceea ce vedeau. Pentru mulți, acest lucru a fost ca o trezire din Matrix. Mai important, și-au dat seama că prietenii lor nu „plac” sau comentează, deoarece algoritmul i-a împiedicat pe prietenii lor să vadă ce au postat.

Un alt instrument arată de la cine vedeți și cine nu sunteți. Acest lucru a fost supărător pentru mulți oameni.

După ce au trecut prin acest proces, oamenii au venit cu noi teorii populare. De exemplu, ei au crezut că trebuie să fie înțelepciunea FB în eliminarea materialului care nu este interesant într-un fel sau altul. [parafrazând].

Le-au lăsat să configureze pe cine au văzut, ceea ce a determinat mulți oameni să spună că algoritmul FB este de fapt destul de bun; era puțin de schimbat.

Sunt utile aceste teorii populare? Doar două: angajamentul personal și panoul de control, deoarece acestea vă permit să faceți ceva. Dar există instrumente de ajustare slabe.

Cum să îmbrățișăm teoriile populare: 1. Sondele algoritmice, pentru a pătrunde și a provoca. „Ar fi minunat, spune Karrie, să avem API-uri deschise, astfel încât oamenii să poată crea instrumente” (Ar fi minunat să avem API-uri deschise, astfel încât oamenii să poată crea instrumente. FB l-a depreciat.) 2. Interfețe înțelepte pentru a genera teorii populare acționabile. Reglarea pentru a reveni la împrumut?

Un alt panou de control al interfeței de utilizare, construit de Eric Gilbert, folosește designul pentru a expune algoritmii.

Ea se încheie cu un formular wuote Richard Dyer: „Toți tehnologii sunt în același timp tehnici și totodată sociali” ”

Comentarii dezactivate pe [liveblog] [PEReche] Karrie Karahalios

[liveblog] [PERE] Jess Holbrook

Sunt la conferința PAIR de la Google. Jess Holbrook este un lider UX pentru AI. Vorbește despre învățarea automată centrată pe om.

NOTĂ: Live-blogging. A greși lucrurile. Puncte lipsă. Omiterea informațiilor cheie. Introducerea măcinării artificiale. Sublinierea excesivă a problemelor mici. Parafrazând prost. Nu rulează un control ortografic. Gândind ideile și cuvintele altor persoane. Tu esti avertizat, oameni.

„Vrem să punem AI în setul de instrumente Maker, pentru a vă ajuta să rezolvați probleme reale.” Unul dintre obiectivele acestui lucru: „Cum democratizăm AI și schimbăm ce înseamnă să fii expert în acest spațiu?” El se referă la o postare pe blog pe care a făcut-o împreună cu Josh Lovejoy despre ML centrată pe om. El subliniază că suntem chiar la începutul descoperirii acestor lucruri.

Astăzi, cineva găsește un set de date și găsește o problemă pe care setul o poate rezolva. Antrenezi un model și privești performanțele acestuia și ai decis dacă este suficient de bun. Și apoi lansați „Primul X inteligent din lume. Următorul pas: profitul”. Dar dacă ai putea face acest lucru într-un mod centrat pe om?

Proiectarea centrată pe om înseamnă: 1. Să rămâi în proximitate. Cunoaște-ți utilizatorii. 2. Divergență incluzivă: întindeți mâna și aduceți persoanele potrivite. 3. Definiție comună a succesului: ce înseamnă a fi făcut? 4. Faceți devreme și des: multe prototipuri. 5. Iterează, testează, aruncă-l.

Deci, cum ar arăta o abordare centrată pe om a ML? El dă câteva exemple.

În loc să încerce să găsească o aplicație pentru date, ML centrat pe om găsește o problemă și apoi găsește un set de date adecvat pentru acea problemă. De exemplu, diagnosticul bolilor plantelor. Asamblați fotografii etichetate cu plante. Sau, utilizați ML pentru a personaliza o „lingură de echilibrare” pentru persoanele cu Parkinson.

Astăzi, găsim părtinire în seturile de date după ce o problemă este dezactivată. De exemplu, articolul ProPublica expune tendința în predicțiile ML recidive. În schimb, inspectați proactiv pentru prejudecăți, conform discursului anterior al lui JG.

Astăzi, modelele personalizează experiențe, de exemplu, tastaturi care se adaptează la dvs. Cu ML axat pe om, oamenii își pot personaliza modelele. De exemplu, cineva de aici a creat un detector de raton care folosește imagini pe care el însuși le-a luat și le-a încărcat, personalizate la ratonul său de companie.

Astăzi, trebuie să centralizăm datele pentru a obține rezultate. „Cu ML centrată pe om, am avea, de asemenea, învățare descentralizată, federată” Cu ML centrată pe om, am avea, de asemenea, învățare descentralizată, federată, obținând beneficiile, menținând în același timp confidențialitatea.

Astăzi există un grup mic de experți în ML. [Fotografia pe care o arată sunt toți bărbați albi, în mod clar.] Cu ML centrat pe om, veți obține experți care au expertiză în domeniul non-ML, ceea ce duce la mai mulți producători. Puteți crea seturi de date mai diverse, incluzive.

Astăzi, avem pregătire și testare restrânse. Cu ML axat pe om, vom judeca în schimb prin modul în care sistemele schimbă viața oamenilor. De exemplu, ML pentru orbi pentru a-i ajuta să recunoască lucrurile din mediul lor. Sau traducerea în timp real a semnelor.

Astăzi, facem ML o dată. De ex., PicDescBot scoate un tweet din greseli amuzante de recunoaștere a imaginii. Cu ML axat pe om vom combina ML și predarea. De exemplu, un om atrage un exemplu, iar rețeaua neuronală generează alternative. Într-un alt exemplu, ML s-a îmbunătățit peisajele realizate de StreetView, unde a aflat ce este o îmbunătățire dintr-un set de date de fotografii profesionale. Google sugerează automat ML învață, de asemenea, din aportul uman. De asemenea, arată un videoclip cu Simone Giertz, „Regina roboților de rahat”.

El face referire la Amanda Case: „Extinderea definiției oamenilor despre normal” este aproape întotdeauna un proces treptat.

[Fotografia echipei sale este extrem de diversă.]

Comentarii dezactivate pe [liveblog] [PERE] Jess Holbrook

[liveblog] Google AI Conference

Sunt, în mod surprinzător, la prima conferință PAIR (People + AI Research) de la Google, la Cambridge. Sunt aproximativ 100 de persoane aici, poate jumătate de la Google. Tema oficială este: „Cum funcționează împreună oamenii și AI? Cum poate AI să beneficieze pe toată lumea? ” Am avut deja trei conversații deschizătoare de ochi și conferința nici măcar nu a început încă. (Conferința pare admirabil de echilibrată în funcție de gen în audiență și vorbitori)

NOTĂ: Live-blogging. A greși lucrurile. Puncte lipsă. Omiterea informațiilor cheie. Introducerea măcinării artificiale. Sublinierea excesivă a problemelor mici. Parafrazând prost. Nu rulează un control ortografic. Gândind ideile și cuvintele altor persoane. Tu esti avertizat, oameni.

Marele Martin Wattenberg (jumătate din Wattenberg - Fernanda Viéga) dă startul, prezentându-l pe John Giannandrea, vicepreședinte la Google responsabil de AI, căutare și multe altele. „Am depus mult efort în utilizarea seturilor de date incluzive”.

John spune că fiecare verticală va fi afectată de acest lucru. „Este important să obții latura umanistă a acestui drept”. El spune că există 1.300 de limbi vorbite în întreaga lume, așa că dacă doriți să ajungeți la toată lumea cu tehnologie, învățarea automată vă poate ajuta. La fel cu îngrijirea sănătății, de ex. diagnosticarea problemelor retiniene cauzate de diabet. La fel și cu social media.

PAIR intenționează să utilizeze ingineria și analiza pentru a spori inteligența expertului, adică profesioniști în meseria lor, oameni creativi etc. Și „cum rămânem inclusiv? Cum ne asigurăm că această tehnologie este disponibilă pentru toată lumea și nu este folosită doar de o elită? ”

Va vorbi despre interpretabilitate, controlabilitate și accesibilitate.

Interpretabilitate. Google și-a înlocuit toate software-urile de traducere lingvistică cu AI bazat pe rețea neuronală. El arată un exemplu de Hemingway tradus în japoneză și apoi înapoi în engleză. Este excelent, dar încă parțial greșit. Un instrument de vizualizare arată un grup de trei șiruri în trei limbi, arătând că sistemul le-a grupat împreună deoarece sunt traduceri ale aceleiași propoziții. [Sper că mă înțeleg bine.] Un alt exemplu: o fotografie cu degradeuri integrate arată că sistemul a identificat o fotografie ca o barcă de incendiu din cauza fluxurilor de apă care provin din ea. "Tocmai începem acest lucru." „Trebuie să investim în instrumente pentru a înțelege modelele.”

Controlabilitate. Aceste sisteme învață din datele etichetate furnizate de oameni. „Am depus mult efort în utilizarea seturilor de date incluzive”. El arată un instrument care vă permite să inspectați vizual datele pentru a vedea fațetele prezente în ele. El arată un alt exemplu de identificare a diferențelor pentru a construi modele mai robuste. „Am avut oameni din toată lumea care desenează schițe. De exemplu, desenați o schiță a unui scaun. ” În diferite culturi, oamenii desenează diferite figuri ale unui scaun. [A se vedea Eleanor Rosch despre prototipuri.] Și puteți construi constrângeri în modele, de exemplu, masculin și feminin. [Nu am primit asta.]

Accesibilitate. Cercetările interne de pe YouTube au construit un model pentru recomandarea videoclipurilor. Inițial, se uita doar la câți utilizatori l-au urmărit. Obțineți rezultate mai bune dacă vă uitați nu doar la clicuri, ci la utilizarea pe toată durata vieții de către utilizatori. [Din nou, nu am obținut asta cu precizie.]

Google open-source Tensor Flow, instrumentul AI al Google. „Oamenii au folosit-o din orice pentru a sorta castraveții sau pentru a urmări creșterea vacilor”. Oamenii l-au folosit din toate pentru a sorta castraveți sau pentru a urmări creșterea vacilor. Google nu s-ar fi gândit niciodată la aceste aplicații.

AutoML: a învăța să înveți. Ne putem da seama cum să permitem ML să învețe automat. Într-un caz, se uită la modele pentru a vedea dacă poate crea altele mai eficiente. AIY-ul Google le permite DIY-ului să construiască AI într-o cutie de carton, folosind Raspberry Pi. John indică, de asemenea, o aplicație pentru Android care compune muzică. De asemenea, Google a colaborat cu Geena Davis pentru a crea un sw care să poată identifica personaje masculine și feminine din filme și să urmărească cât vorbește fiecare. A descoperit că filmele care au o conducere sau un co-conducător feminin puternic sunt mai bune din punct de vedere financiar.

El încheie subliniind angajamentul Google de a-și deschide instrumentele și cercetarea.

Fernanda și Martin vorbesc despre importanța vizualizării. (Dacă nu sunteți familiarizați cu munca lor, duceți vieți private.) Când F&M s-a interesat de ML, au vorbit cu inginerii. „„ ML este foarte diferit. Poate că nu este la fel de diferit ca software-ul de hardware. Dar poate. ”ML este foarte diferit. Poate că nu este la fel de diferit ca software-ul de hardware. Dar poate. Tocmai aflăm. "

M&F a vorbit și cu artiștii de la Google. El arată fotografii ale oamenilor imaginați de Mike Tyka, create de ML.

Acest lucru ne spune că AI este, de asemenea, despre optimizarea factorilor subiectivi. ML pentru toată lumea: ingineri, experți, utilizatori laici.

Fernanda spune că ML se răspândește în toată Google și chiar în Alphabet. Ce face PAIR? Publică. Este interdisciplinar. Face educație. De exemplu, TensorFlow Playground: o vizualizare a unei rețele neuronale simple folosite ca introducere la ML. Au deschis-o din surse, iar Net a preluat-o. De asemenea, un jurnal numit Distill.pub vizează explicarea ML și vizualizare.

Ea „fără rușine” conectează deeplearn.js, instrumente pentru a aduce AI în browser. „Putem transforma dezvoltarea ML într-o experiență fluidă, disponibilă pentru toată lumea?”
Ce experiențe ar putea dezlănțui acest lucru, întreabă ea.

Ele acordă subvenții pentru facultate. Și extinderea rezidenței Brain pentru persoanele interesate de HCI și design ... chiar și în Cambridge (!).