Društvena odgovornost
Twitter će analizirati štetni utjecaj svojih algoritama
Tekst članka se nastavlja ispod banera
Twitter je na svom blogu predstavio novu inicijativu Odgovorno Strojno Učenje“(Responsible Machine Learning) kojom želi analizirati bilo kakvu nenamjernu štetu koju uzrokuju tvrtkini algoritmi.
Jedan će od prvih zadataka nove inicijative biti procjena rasne i rodne pristranosti unutar Twitterovog algoritma za obrezivanje slika.
Naime, korisnici su ove društvene mreže istaknuli da automatski izrezani pregledi fotografija daju prednost svjetloputim licima u odnosu na ona tamnoputa.
Kao odgovor na ovaj problem, Twitter je tako prošloga mjeseca počeo testiranje prikazivanja fotografija bez da ih obrezuje.
Novom će inicijativom također proučiti kako se preporuke sadržaja na vremenskim crtama (timeline) korisnika razlikuju među raznim rasnim podskupinama, javlja Bug.
Osim toga, analizirat će preporuke sadržaja u političkim ideologijama unutar različitih zemalja.
Twitter navodi u objavi da će surađivati s nezavisnim akademskim istraživačima te će dijeliti rezultate svojih analiza i tražiti povratne informacije od javnosti.
''Rezultati se ovog rada ne moraju uvijek pretvoriti u vidljive promjene proizvoda, ali će dovesti do povećane svijesti i važnih rasprava o načinu na koji gradimo i primjenjujemo strojno učenje'', zaključuju iz Twittera.