Joulukuussa Dropbox lisäsi palveluunsa tekoälypohjaisen keskusteluominaisuuden ja aktivoi sen käyttäjilleen lupaa kysymättä. Omasta datasta keskustelu edellyttää, että dataa lähetetään ai-kumppani OpenAI:lle.
Tekniikka oli avattu palvelun ohjeissa ja Dropbox vakuutti, että OpenAI ei käytä henkilökohtaista dataa mallien koulutuksessa. Viestinnässä olisi silti parannettavaa.
Toistaiseksi kellään ei ole syytä uskoa, etteikö OpenAI pitäisi sanaansa datankäytöstä. Lupauksen rikkominen olisi koko alalle mittaamaton mainehaitta.
OpenAI ei ole kertonut juuri mitään siitä, millä datalla sen tuoreimmat mallit on koulutettu. Se kertoo kyllä, että erittäin suositun ChatGPT:n ilmaisversion käyttödataa voidaan käyttää mallien parantamiseen, mutta se ei kerro miten. Jo se opettaa käyttäjille epäluottamusta tekoälyn kanssa käytyihin keskusteluihin.
Dropbox-tapaus opettaa, että koko ala kaipaisi vahvempaa avoimuuden kulttuuria. Malleja kehittävien yhtiöiden olisi syytä avata, mitä malleihin on syötetty. Niitä osana palveluaan käyttävien taas olisi syytä noudattaa varovaisuutta uusien ominaisuuksien käyttöönotossa, kun kyseessä on käyttäjien henkilökohtainen data.
Muutoin tekoälyominaisuuksista uhkaa tulla evästeiden kaltainen ärsytyksenaihe, jonka käyttäjät nappaavat ensimmäiseksi pois päältä. Se olisi sääli, sillä tekoälyteknologialla on paljon annettavaa.