青楼传媒

Tarinat ja julkaisut

Muut jutut

10.02.2022

Eri reittej?: Algoritmit p?yristytt?v?t, ?rsytt?v?t ja ihastuttavat – ja sitovat meid?t Facebookiin ja Googleen

Kuvitus: Hans Eiskonen

Verkkokauppojen ja sosiaalisen median algoritmit ovat tyhmempi? kuin luulemme, mutta silti ne onnistuvat t?kkim??n tunteitamme. Toimittaja Johanna Vehkoon jutussa tutkija Minna Ruckenstein kertoo, miten dataj?ttien algoritmit ovat vaivihkaa uineet arkeemme ja alkaneet kilpailla vapaa-ajastamme jopa unta vastaan.

Teksti Johanna Vehkoo
Kuvitukset Hans Eiskonen

Toukokuussa 2021 sosiaalisessa mediassa ja internetin keskustelupalstoilla alkoi levit? huhu, jonka mukaan Iltalehti sensuroi kommenttipalstaansa. Perusv?ite kuului suunnilleen niin, ett? Sanna Marinia tai muita vasemmistolaisia ja vihreit? poliitikkoja tukevat kommentit poistettiin, kun taas perussuomalaisille my?nteiset kommentit meniv?t l?pi. Teoria sai pontta siit? tosiseikasta, ett? Iltalehti on ulkoistanut kommenttipalstojensa moderoinnin Utopia Analyticsille, jonka perustaja ja hallituksen puheenjohtaja on perussuomalaisten kansanedustaja Tom Packalén. Moderointi on p??osin algoritmin tekem??.

Oletettua sensurointia k?sitelleiden kirjoitusten s?vy oli p?yristynyt. V?itteet levisiv?t sen verran laajalle, ett? p??toimittaja Perttu Kauppinen alkoi vastailla kyselij?ille ja selitt??, miten Iltalehden moderointi toimii. 

”T?st? tuli minulle suoraan kymmeni? yhteydenottoja”, Kauppinen kertoo.

H?n selitti kyselij?ille, ett? algoritmi ei tee kaikkea Iltalehden moderointia, vaan STT:n ihmismoderaattorit hoitavat osan. Sek? algoritmi ett? ihminen tekev?t moderointivirheit?. Kone oppii ihmisen ty?n perusteella, mutta my?s inhimillisten virheiden mahdollisuus siirtyy ihmiselt? koneelle.

My?s lehden uutisp??llik?t vastailivat kyselij?ille s?hk?postitse. Moni kyselij? sai jopa n?hd? omien kommenttiensa moderointip??t?kset. Niist? selvisi, mitk? p??t?kset olivat ihmisen ja mitk? koneen tekemi?. Virheellisi? poistoja kyll? tapahtui, mutta tyypillisesti ne olivat ihmisen tekemi?. Iltalehti julkaisi my?s artikkelin, jossa se selitti, ettei sen moderointisysteemi suosi perussuomalaisia.

”Sivuillemme tulee 300–400 000 kommenttia kuukaudessa. Emme koskaan tule p??sem??n t?ydelliseen tilanteeseen, jossa kone- tai ihmismoderaattorit tekev?t vain oikeita p??t?ksi?”, Kauppinen sanoo.

Lehden omassa selvityksess? ei l?ytynyt mit??n n?ytt?? siit?, ett? perussuomalaisen kansanedustajan firma olisi s??t?nyt teko?lyns? suosimaan perussuomalaista ajattelua. 

Mystiikkaa ja mustaa magiaa

”T?m? on tosi hyv? esimerkki siit?, millaisia tunteita algoritmit ihmisiss? her?tt?v?t”, sanoo tutkija Minna Ruckenstein. H?n ty?skentelee Helsingin yliopiston Kuluttajatutkimuskeskuksessa apulaisprofessorina. 

Ruckenstein on tutkinut eri n?k?kulmista algoritmeja ja ihmisten k?sityksi? niist? vuosien ajan. Parhaillaan h?n kirjoittaa kirjaa algoritmeista ja tunteista. Toinen aihetta liippaava opus, australialaisten kollegojen kanssa toimitettu kirja arjen automaatiosta ilmestyi toukokuussa 2022.

Syksyyn 2023 asti jatkuvassa Algoritmin kulttuuri -hankkeessa Ruckensteinin kansainv?linen ty?ryhm? tutkii muun muassa keskustelujen moderointia, teko?lyetiikan kehittymist? ja ruotsalaista sosiaalietuuksista p??tt?v?? algoritmia, jonka nimi on Algot. Hankkeen teemoja ovat arki ja tunteet, valta ja talous, etiikka ja teknologia.

”Algoritmeihin liitet??n arkikeskustelussa monenlaista mystiikkaa ja mustaa magiaa. Arkisia kokemuksia ja tunnereaktioita tutkimalla voimme p??st? l?hemm?s my?s aiheeseen liittyv?? poliittista keskustelua ja teknologiakritiikki?.”

Monet tutkijat puhuvat algoritmisista j?rjestelmist?. T?ss? jutussa termi? ei k?ytet?, koska algoritminen j?rjestelm? toimii jossakin tietyss? teknisess? ymp?rist?ss?. Ruckenstein puhuu nyt algoritmeista sosiaalisessa ja arkisessa merkityksess?.

”Kun puhun tunteista ja algoritmeista, en tarkoita faktuaalisia algoritmeja, vaan jotakin mihin ihmiset reagoivat. Ne ovat kulttuurisessa mielikuvituksessa. Algoritmi on t?ss? tavallaan irtautunut siit?, mit? se oikeasti on teknologian kehitt?misen kent?ll?.”

Ruckenstein on nimitt?in huomannut, ett? kun ihmisten kanssa alkaa puhua algoritmeista, ihmiset alkavat puhua digitaalisiin ymp?rist?ihin liittyvist? tunteista. Algoritmi ei j?t? ket??n kylm?ksi.

Kuvitus: Hans Eiskonen

No miksei se algoritmi sitten tunne minua?

Toinen esimerkki algoritmien her?tt?mist? tunteista on sitke?sti el?v? uskomus siit?, ett? Facebook salakuuntelee k?ytt?jiens? keskusteluja heid?n puhelintensa kautta. Tied?tteh?n kertomustyypin: ”Olin k?velyll? yst?v?n kanssa ja keskustelimme tietyn merkin tennareista ja heti kun avasin Facebookin, siell? oli juuri n?iden tennareiden mainos.” N?it? tarinoita on ker??ntynyt Ruckensteinin tutkimusprojektiin suuri m??r?. On erilaisia teorioita siit?, miten kuunteleminen tapahtuu ja millaisia asioita se koskee, mutta yhteist? tarinoille ovat oudot yhteensattumat ja niiden pit?minen todistusvoimaisina.

Facebook on aina kielt?nyt puheluiden tai muiden keskustelujen kuuntelemisen. Ei ole mit??n todisteita, ett? Facebook vakoilisi ihmisten keskusteluja puhelinten mikrofonien kautta. Se saa meist? tarpeeksi tietoa muutenkin. 

”T?st? puhelinkuuntelusta on tullut niin kutsuttu affektiivinen fakta”, sanoo Ruckenstein. 

Se tarkoittaa asiaa, joka tuntuu todelta sen sijaan ett? sille olisi varsinaisia todisteita. Affektiivinen fakta my?s vahvistuu tiedon kiist?misest?.  

”Jos Facebook sanoo, ett? ei me kuunnella puhelimia, ihmiset ajattelevat, ett? seh?n nyt on just sellaista, mit? Facebook tekisi. Ihmiset pit?v?t omaa kokemustaan liiankin osuvien mainosten saamisesta tarpeeksi pit?v?n? todisteena siit?, ett? puhelinta kuunnellaan.”

Loputtomasta mainosvirrasta pist?v?t silm??n erityisesti ne, jotka liittyv?t ihmisen omiin haavoittuvuuksiin. Nainen, joka ei ole tullut raskaaksi tai ei edes halua saada lapsia, huomaa itselleen tyrkytetyt hedelm?ityshoidot tai raskaus- ja ovulaatiotestit. Kaljuuntuvaa miest? h?iritsev?t hiusimplanttimainokset. Taas syntyy tunne siit?, ett? on jonkinasteisen vakoilun kohteena.

”Meid?n tutkimuksessamme on tullut esiin tosi paljon ?rtymyst? n?it? raskaustestej? kohtaan”, Ruckenstein sanoo. 

”Todellisuudessa suomalaiset aineistot ovat niin pieni?, ettei mainoksia edes pysty kohdentamaan juuri sille naiselle, joka haluaa raskaaksi. Targetointi on paljon simppelimp??: ik?, sukupuoli, asuinpaikka.”

Sanomalehden aukeamaa selaillessaan tai kadulla k?velless??n hedelm?ityshoitomainosta tuskin huomaa, ellei sitten etsi juuri sellaista. Sosiaalisessa mediassa mainos tunkeutuu omaan algoritmien kuratoimaan sis?lt?jen virtaan. Se tuntuu herk?sti paljon henkil?kohtaisemmalta.

”Mainos tulee l?helle hyvin intiimill? tavalla, koska siit? puuttuu julkinen tila. Mainonta tunkee ihmisen henkil?kohtaiseen tilaan, ja se saa aikaan tunnereaktioita ihan eri tavalla.”

H?nen mukaansa ihmiset oppivat verkkomainosten avulla algoritmin logiikkaa, kun he huomaavat, ett? heid?n palvelulle antamansa tieto tulee jossain muodossa takaisin.

”T?m? on arjen algoritmiymm?rryksen n?k?kulmasta t?rke??.”

Ruckensteinin mielest? on mielenkiintoista, ett? Facebookin tykk?ysnappiin ei liitet? vastaavia salaliittoteorioita, vaikka syyt? kenties olisi. 

”Tykk?ysnappi on se, joka ker?? koko ajan tietoa k?ytt?jist?. Sill? on huomattavasti vakoiluvoimaa, mutta se ei ole saanut aikaan t?t? kokemusta vakoilusta.”

Facebookin tykk?ysnappeja on nimitt?in lukemattomilla muillakin verkkosivuilla, ei pelk?st??n Facebookissa. Jos olet viime aikoina kirjautunut Facebookiin, palvelu pystyy seuraamaan k?yntej?si muilla sivustoilla, joilla tykk?ysnappi esiintyy. Sit? ei ole tarpeen edes klikata. Itse asiassa Facebook tallentaa jonkin verran dataa my?s k?ytt?jist?, joilla ei edes ole Facebook-tili? tai eiv?t ole tililleen kirjautuneina. Firma kertoo t?st? itse sivuillaan, mutta varsin yleisell? tasolla: ”Saamme informaatiota verkkosivustosta, jolla vierailet, p?iv?m??r?st? ja kellonajasta sek? muuta selaimeen liittyv?? informaatiota.”

Google s?ilytt?? k?ytt?jien selausdataa vain kaksi viikkoa, mutta Facebook tiett?v?sti per?ti kolme kuukautta. Firma v?itt??, ettei se k?yt? dataa k?ytt?jien seurantaan. Facebookin mukaan data on anonymisoitu, eik? sit? voi yhdist?? tiettyihin k?ytt?jiin. Mutta mainosten kohdentamiseen laajemmassa mittakaavassa sit? kyll? k?ytet??n. 

Vastaavaa ?rsyyntymist? esiintyy esimerkiksi silloin, kun ihmiset valittavat Spotifyn kerrassaan typerist? ja aivan sopimattomista musiikkisuosituksista. Min?h?n kuuntelen ainoastaan sofistikoitunutta musiikkia, miksi minulle tyrkytet??n Arttu Wiskaria! Jos kerran palvelu on r??t?l?ity minulle, olisi sitten r??t?l?ity kunnolla!

”Ihmisten odotukset algoritmien kyvykkyytt? kohtaan ovat hyvin korkealla, ne ovat jopa suhteettomia”, Ruckenstein toteaa. 

”Ajatellaan, ett? teko?ly tulee ja ratkaisee kaikki vaikeat ongelmat, joiden edess? me ihmiset olemme ihan pulassa. Teko?ly ratkaisee k?yhyyden, koska se osaa allokoida resurssit fiksummin. Ilmastonmuutos ratkotaan teko?lyn mallinnuksilla, jotka n?ytt?v?t, miten asiat pit?isi tehd?. N?inh?n ei tietenk??n k?y.”

Digitaalisen maailman pelon maantiede

Ruckenstein k?ytt?? ty?ss??n Raymond Williamsin tunnerakenteiden k?sitett?. H?n erottaa kolme rakennetta – ilon, pelon ja ?rsytyksen – joihin algoritmeihin liittyvi? tunnereaktioita voi sijoittaa. H?n pit?? ?rsytyst? tutkimuksellisesti kiinnostavimpana.

”?rsytyksen tunne vie meid?t l?hemm?ksi algoritmin logiikkaa, koska silloin pit?? sanoa, mik? siin? ?rsytt??. ?rsytys kertoo meille t?rkeit? asioita algoritmisista ymp?rist?ist?.”

Me el?mme jo hyvin tiiviisti yhdess? algoritmien kanssa. Oikeastaan olemme p?ivitt?isess? symbioosissa niiden kanssa. Olemme suostuneet vaihtokauppaan, jossa maksamme palveluista henkil?tiedoillamme, ja nyt tuntuu hankalalta perua sit? suostumusta.

”Sitten huomaamme, ett? algoritmit tunkevat meit? stereotyyppisiin, yksinkertaistaviin lokeroihin ja esimerkiksi tiukkojen sukupuolidikotomioiden maailmaan”, Ruckenstein sanoo.

Siksi ?rsytt??, kun algoritmien suositukset perustuvat l?hinn? sukupuoleen, sijaintiin tai ik??n. Meh?n olemme niin paljon muutakin!

Mahdollisesti yleisimm?t algoritmeihin liitetyt tunteet kytkeytyv?t silti helppouteen ja mukavuuteen, ”hyv??n meininkiin”. Sosiaalisuudesta ja yhteydenpidosta on tullut paljon helpompaa. Verkossa voi hoitaa pankkiasiat ja tilata ruokaa kotiovelle. Arkiel?m??mme sujuvoittavat algoritmit muodostavat jo niin t?rke?n infrastruktuurin, ett? on vaikea kuvitella, miten p?rj?isimme ilman sit?. 

Kolmas kategoria liittyy algoritmeihin liitettyihin pelkoihin ja dystopioihin. T?ss? Ruckenstein soveltaa pelon maantieteen k?sitett?. Suomessa pelon maantiedett? tutki 1990-luvulla maantieteilij? Hille Koskela. H?nen mukaansa naisten kaupunkitila on ahtaampi kuin miesten, koska he pelk??v?t liikkua tietyiss? paikoissa erityisesti ?isin. Vaikka seksuaalista v?kivaltaa tapahtuu enemm?n kodeissa kuin puistoissa, pime?t kujat ja pusikot tuntuvat pelottavilta.   

”Digitaalisen maailman pelon maantiede operoi samaan tapaan eri tasoilla. On yksityisyyden loukkauksia, hakkeroinnin pelkoa, ajatellaan ett? puhelimia kuunnellaan. Isommassa kuvassa pohditaan dystopioita. Onko internet ylip??t??n menossa ihan v??r??n suuntaan? Vakoilevatko Ven?j? ja Kiina pian kaikkia? N?it? pelkoja ei voi v?ltt?m?tt? todentaa”, Ruckenstein sanoo.

”Ei voi tiet??, tuleeko dystopiasta todellista, mutta on olemassa monen tunnistama rakenteellinen kokemus siit?, ett? t?ss? maailmassa kaikki ei ole OK, jotain on vialla. Ihmiset k?ytt?v?t t?st? tunteesta usein sanaa kuumottava.”

Digitaalisen maailman pelon maantieteeseen voidaan lukea my?s tilanteet, joissa ihminen j?tt?? jotakin sanomatta siksi, ett? pelk?? verkkovihaa ja h?irik?inti?, vaikka ei olisi itse koskaan kokenut sit?.

”Ihmiset pelk??v?t my?s toisten puolesta, esimerkiksi ik??ntyvien vanhempien puolesta, jotka klikkailevat linkkej? ja tulevat huijatuksi.”

Kuvitus: Hans Eiskonen

Olisipa algoritmi ihmism?isempi!

Ruckensteinin ty?ryhm? on tutkimuksissaan huomannut, ett? monesti k?ytt?j?t kaipaavat algoritmeilta inhimillisyytt?. 

”青楼传媒 pit?isi olla niin intuitiivinen, ett? se ymm?rt?? ihmist? juuri oikeana hetken? juuri oikealla tavalla. T?m? ihmisen kaipuu on uusi piirre konesuhteessamme”, Ruckenstein sanoo. 

”Algoritmista tulee er??nlainen peili, joka n?ytt??, ett? ihminen on erilainen kuin kone. Silti me toivomme, ett? olisipa kone enemm?n kuin ihminen. Silloin yhteiselomme olisi ihanaa.”&苍产蝉辫;

Teko?lyn kehitt?jien markkinointiv?itt?m?t lupaavat aina hiukan liikaa, ja mediakin usein voimistaa n?it? lupauksia. Ihmiset kohdistavat suuria odotuksia teko?lyn kyvykkyyteen.

”Jos joku Facebook sanoo kehitt?neens? tunteiden analyysimenetelm?n, jonka avulla mainontaa pystyy kohdentamaan vaikkapa juuri tietynlaisessa haavoittuvaisessa tilanteessa oleville nuorille, meill? ei ole keinoja selvitt??, onko asia todella n?in.”

Dataj?tit pit?v?t algoritmejaan liikesalaisuuksina, eiv?tk? halua kertoa niiden toiminnasta juuri mit??n julkisesti. Tutkijoiden on vaikea selvitt??, mihin Facebookin ja Googlen kaltaisten firmojen algoritmit oikeasti pystyv?t ja mihin eiv?t.

Esimerkiksi Cambridge Analytica -skandaalin yhteydess? vuonna 2018 keskusteltiin siit?, miten firma hy?dynsi miljoonien Facebook-k?ytt?jien dataa poliittisen mainonnan kohdentamisessa. Data oli hankittu kyseenalaisin keinoin, ja sit? k?ytettiin Ted Cruzin ja Donald Trumpin presidentinvaalikampanjoissa. Facebook tuomittiin tapauksen selvittelyjen j?lkeen suuriin sakkoihin sek? Yhdysvalloissa ett? Britanniassa. Syyn? olivat k?ytt?jien yksityisyyden loukkaukset ja datan haitallinen k?ytt?.

V?lill? aiheen uutisoinnista on syntynyt kuva, ett? Facebookin k?ytt?jien ohjailu olisi hyvinkin yksinkertaista. Todellisuudessa emme viel?k??n tied? tarpeeksi hyvin, kehen se vaikutti ja miten paljon.

”Voi olla, ett? Cambridge Analytican avulla saatiin jonkin verran passiivisia ??nest?ji? liikkeelle, ja jos n?m? olivat vaa’ankieliosavaltioissa, se ehk? riitti. Vaalivaikuttaminen voi toimia tietyiss? paikoissa tehokkaammin kuin toisissa”, Ruckenstein sanoo.

”Toki Cambridge Analytican tapaus on joka tapauksessa skandaali. Se on tehnyt Facebookin ylenpalttisen tietojenkeruun n?kyv?ksi. Emme saa alkaa ajatella, ett? t?llainen on normaalia.”

Vuonna 2012 Facebook teki kokeen, johon 689 003 k?ytt?j?? osallistui tiet?m?tt??n. Tunnekokeena (emotion experiment) tunnetussa testiss? algoritmi tunnisti p?ivitykset negatiivisiksi tai positiivisiksi tiettyjen asiasanojen perusteella. Facebook testasi, mit? tapahtuu, jos negatiivista tai positiivista sis?lt?? v?hennet??n uutisvirrasta. 

Facebookin omat tutkijat julkaisivat tuloksensa vuonna 2014. Heid?n mukaansa uutisvirran v?litt?m?n tunnesis?ll?n manipuloiminen muutti k?ytt?jien omaa tunnetilaa. Tutkimuksessa l?ydetty vaikutus oli todella pieni, mutta media uutisoi aiheesta siten, ett? vaikutus alkoi tuntua suurelta.

T?llaisia kokeiluja digij?tit tekev?t jatkuvasti. Tutkijat puhuvat suostuttelevasta teknologiasta: ihmisi? tuupitaan palveluissa eri suuntiin designin hienovaraisilla muutoksilla. Sitten katsotaan, mill? on eniten vaikutusta. 

Suosittelualgoritmien teht?v? on koukuttaa ihminen palveluun niin, ett? h?n kuluttaa siell? mahdollisimman paljon aikaansa. Esimerkiksi Netflixin virallinen Twitter-tili kertoi taannoin, ett? Netflix kilpailee unta vastaan. 

”En ymm?rr?, miten fiksut, maailman parhaissa huippuyliopistoissa opiskelleet ihmiset selitt?v?t itselleen, ett? t?t? he tekev?t ty?kseen”, Ruckenstein toteaa.

Olemme kaikki dataj?ttien koekaniineja

Ruckensteinin ty? algoritmeista ja tunteista osoittaa, ett? jokainen sosiaalisen median ja internetin k?ytt?j? n?kee ja tuntee algoritmeihin liittyvi? tunteita itsekseen, mutta t?st? ei ole viel? tullut yhteist? kulttuuria. Yhteinen kokemus voisi johtaa siihen, ett? siirrymme oman somen k?ytt?mme voivottelusta vaatimaan yhti?ilt? parempaa.

Sit? mukaa, kun dataj?tit automatisoivat arkeamme, me tulemme yh? riippuvaisemmiksi niiden palveluista. Olemme mukana jatkuvassa kokeilun tilassa – permanently beta, kuten teknologiayrityksiss? sanotaan. Silti meilt? puuttuu kunnollinen julkinen keskustelu siit?, mit? uusi algoritminen maailmanj?rjestys tarkoittaa ja mill? ehdoilla me olemme siin? mukana. 

”Olemme muuttaneet asumaan er??nlaiseen globaaliin living labiin, jossa reaktioitamme uusiin teknologioihin tarkkaillaan jatkuvasti. Aina kun opimme yhden asian, eteemme asetetaan jotakin uutta”, Ruckenstein sanoo.

Yht?kki? esimerkiksi deittailukulttuuri on muuttunut. Samoin musiikin, elokuvien, televisiosarjojen ja muun kulttuurin kulutus. Niin my?s kommunikaatio yst?vien ja tuttavien kanssa. Ty?nteko. Kuluttaminen.

”Antaudumme erilaisiin algoritmisuhteisiin ja vasta j?lkik?teen ymm?rr?mme, mihin tuli taas ryhdytty?”, Ruckenstein sanoo.

Pidemm?n aikav?lin sosiaalisia muutoksia on vaikea havaita. Pian emme muista, miten asiat tehtiin ennen.

”Siin? sitten mietimme itseksemme, oliko hyv? idea ostaa geenitesti jostain amerikkalaisesta firmasta tai menn? Tinderiin ja niin edelleen.”

Omasta sosiaalisen median k?yt?st??n ihmiset kyll? puhuvat, paljonkin. Hyvin yleinen keskustelunaihe on oman somek?yt?n rajoittaminen. Sit? puidaan usein juuri sosiaalisessa mediassa. Tuskaillaan, miten paljon aikaa palveluiden parissa kuluu. Liiallinen sometus aiheuttaa krapulamaisia olotiloja. 

”Ihmiset puhuvat my?s siit?, miten hyvien puolien kiillottelu somessa alkaa kaventaa omaa olemista. Sitten he luopuvat v?h?ksi aikaa somesta kokonaan, tasapainottavat itsens? ja menev?t takaisin.”

Ruckensteinin mielest? sosiaalisen median k?ytt?jien jatkuva itses??ntelykeskustelu on v?ist?m?t?nt?, koska dataj?ttien luoma ymp?rist? l?htee siit?, ett? ei pit?isi s??dell? mit??n. Ne kilpailevat ihmisten huomiosta ja tunkeutuvat siksi el?m??mme niin kovalla tarmolla kuin suinkin pystyv?t.

”T?st? syntyy my?s uudentyyppist? eriarvoisuutta. Niill?, jotka kykenev?t itses??ntelyyn, on muutakin el?m?ss??n ja siksi he pystyv?t sen tekem??n. Mutta jos ei ole muita kiinnekohtia, miksi edes l?htisi somesta pois.”

Ruckenstein opettaa Helsingin yliopistossa kurssia otsikolla Tunteet ja teknologian kulutus kulttuurissa. Siell? opiskelijat alkavat aina pohtia, miten he itse voisivat toimia suostuttelevan teknologian ymp?rist?iss?. Silloin Ruckenstein kysyy heilt?: ent? jos kyse ei olekaan sinusta? 

”Se on ymp?rist?, joka tekee kaikkensa sen eteen, ett? pysyisit siell?. On liikaa vaadittu, etenkin nuorilta, ett? he s??ntelisiv?t t?t? itse”, Ruckenstein sanoo.

”Tarvitaan paljon enemm?n keskustelua siit?, mik? on yhteiskunnallisesti sopivaa. Ollaanko me nyt ihan okei sen kanssa, ett? firmat taistelevat unta vastaan?”

Minna Ruckenstein on apulaisprofessori Helsingin yliopiston Kuluttajatutkimuskeskuksessa. H?n vet?? 青楼传媒 S??ti?n rahoittamaa Algoritmin kulttuuri -hanketta (2019–2022). Everyday Automation: Experiencing and Anticipating Emerging Technologies -kirja ilmestyi Routledgen kustantamana toukokuussa 2022 ja on saatavila my?s open access -julkaisuna:

Vuonna 2023 Ruckensteinilta ilmestyi kirja .

Kirjoittaja:
Johanna Vehkoo on vapaa toimittaja ja tietokirjailija, joka vet?? Long Playn algoritmitoimitusta.

Anna palautetta algoritmijutusta ja Eri reittej? -juttusarjasta

Auta meit? tekem??n Eri reiteist? parempi! K?yt?mme ajatuksiasi hy?dyksi sarjan kehitt?misess?.

Ajatuksia t?st? jutusta

Valitse sana tai sanoja, jotka kuvaavat parhaiten ajatuksiasi t?st? jutusta.(Pakollinen)

Ajatuksia Eri reittej? -juttusarjasta

Oletko lukenut aiempia Eri reittej? -juttuja?