Technológusok folyamatosan dolgoznak a biztonságos, nyílt és etikus infokommunikáció megvalósulásán. Egyes szervezetek például a magánadatok biztonságát védő, etikai problémákra megoldást kínáló szabványokat vezetnek be. Máskor közvetlenebb megoldásokhoz fordulnak, mint tette azt háromezer Google-alkalmazott, amikor írásban tiltakoztak a cég és a hadsereg közös gépilátás-projektje ellen.
A mesterséges intelligencia rengeteg morális kérdést vet fel, és a kutatásfejlesztések jelenlegi állása alapján a gépi tanulás területén dolgozó szakemberek a legavatottabbak ezek megválaszolására. A legkockázatosabb fejlesztések jó részét eleve ők végzik.
A Cornell, az Oxford és a Pennsylvania Egyetem 534 gépitanulás-szakértővel végzett felmérést a mesterséges intelligenciával kapcsolatos etikai kérdésekről. A válaszadók 89 százaléka férfi, túlnyomó többségük európai, ázsiai, illetve észak-amerikai volt.
68 százalékuk szerint az MI-közösségeknek többet kellene foglalkozniuk a biztonsággal. A rendszereknek robusztusabbnak, megbízhatóbbnak kell lenniük, és operátoraik szándékaival nagyobb összhangban kell működniük.
A nyitottság az MI-kutastások egyik kulcsa. A válaszadók 84 százaléka szerint minden új kutatásnak részletesen le kell írnia az alkalmazott módszereket, 74 százalékuk pedig az eredmények kötelező közlését javasolta. Viszont csak 22 százalékuk gondolja, hogy a publikált kutatási anyagnak a betanított modellt is tartalmaznia kell.
A hadsereg iránti bizalom sokkal kényesebb téma. Az interjúalanyok általában támogatják az MI katonai logisztikai alkalmazásait, ötből egy ellenzi a gépi látással végzett megfigyelést, viszont 58 százalékuk masszívan ellene van az MI által vezérelt fegyvereknek („gyilkos robotoknak”). 31 százalékuk pedig felmondana, ha ilyen projektekben kellene részt vennie.
A nagyvállalatokat illetően az Open AI-ban bíznak meg leginkább. A Microsoft, a DeepMind és a Google követi őket. A Facebook, a kínai Alibaba és Baidu iránt kisebb a bizalom.