Apple aangeklaagd voor ‘illegaal aftappen van Siri-gesprekken’

Door: Raymon Mens - 12 reacties
Afbeelding: Apple

Hier kon je op wachten. Onlangs werd bekend dat Apple-medewerkers een deel van de commando’s die aan Siri gegeven worden beluisteren voor kwaliteitsbewaking. Nu is de iPhone-maker hiervoor aangeklaagd. Het gaat om een collectieve rechtszaak in Apple’s thuisstaat Californië.

Apple is om precies te zijn aangeklaagd voor “illegale en opzettelijke opname van vertrouwelijke communicatie van personen zonder hun toestemming” via Siri. De overtreding begint eind 2011 en duurt tot heden. Amerikaanse consumenten die menen dat hun privacy geschonden is, kunnen zich bij de zaak aansluiten. De aanklagers eisen een schadevergoeding.

Hey Siri, was dit tegen de wet?

De aanklager is een advocatenkantoor uit Californië. De lokale wet schrijft daar voor dat bedrijven geen data mogen verzamelen zonder toestemming van de gebruiker. Gebruikers geven Apple die toestemming volgens de advocaten alleen wanneer ‘Hey Siri’ wordt gezegd. Of door op de knop om de virtuele assistent te activeren te drukken.

Het probleem met de opnamen die Apple voor het verbeteren van de kwaliteit heeft gemaakt, is dat deze niet altijd het woord ‘Hey Siri’ bevatten. Medewerkers controleren de commando’s bijvoorbeeld omdat Siri werd geactiveerd zonder het activatiewoord. De kunstmatige intelligentie dacht het woord te horen, maar dat was niet zo. Daardoor zijn willekeurige gesprekken opgevangen. Volgens de aanklager staat dit simpelweg gelijk aan het illegaal aftappen van gesprekken en dat mag volgens de privacywet in de VS niet.

Siri vraag luister je altijd mee?
Dit was niet zo’n handig antwoord… Klik/tap voor groter. Screenshot: Raymon Mens/OMT

De Britse krant The Guardian onthulde als eerste dat Apple-medewerkers naar delen van gesprekken met Siri luisteren. Apple bekende dit en zei dat het om een zeer klein deel van de gesprekken ging. Ook Google en Amazon doen iets soortgelijks met hun virtuele assistenten en Microsoft maakt het nog bonter. Desalniettemin schortte de iPhone-maker het analyseren van gesprekken daarna snel op. Inmiddels werkt het bedrijf ook aan een opt-out en mogelijkheid om de gesprekken te verwijderen. Dat kan nu ook, maar is zeer omslachtig. (Zie ook → Zo verwijder je door Apple opgenomen Siri commando’s)

Reacties

12 reacties
  • Profielfoto
    vandenbroeke

    Heel freaky dat meeluisteren. Ik stond gisteren toevallig met mijn nichtje in de Mediamarkt naar Funkodolls te kijken en natuurlijk noem je dan ook een paar keer de naam. Vandaag krijg ik op verschillende websites allemaal advertenties te zien over Funkodolls. Apple is naar mijn mening steeds meer de weg kwijt.

  • Profielfoto
    mmww

    Gewoon apps geen toegang geven tot de microfoon.

  • Profielfoto
    msetten

    Zijn Amazon en Google dan ook aangeklaagd toen bekent werd dat zij afluisteren? Heb soms het idee dat Apple veel vaker wordt aangeklaagd dan andere tech bedrijven. Waarschijnlijk onder mom van dat zij meer geld hebben?

  • Profielfoto
    tuuur

    Weer zo’n gevalletje massa histerie 🤦🏼‍♂️

  • Profielfoto
    SteveSnobs

    Weer een drama om niks. Hop en weer door

  • Profielfoto
    mr.ray

    Dat opnames worden beluisterd is idd normaal maar dacht net dat bij Apple de stemmen werden vervormd zodat het nooit bekend zou zijn van welke account dat komt

  • Profielfoto
    gipsman

    Deze ‘stemtests’ van Siri (of andere) vind ik redelijk normaal als het enkel de bedoeling is om de techniek te verbeteren, en als dit in gebruiksvoorwaarden aangegeven is. Maar waarom kunnen deze bedrijven niet bv. testpanels organiseren met samples van de bevolking om alle nodige ‘spraakeigenaardigneden’ te registreren? Pharmabedrijven doen dit bv. ook om nieuwe medicatie te testen bij kerngezonde personen. Kost geld natuurlijk. En een spraakassistent verkopen en dan klanten inzetten voor training van het device is natuurlijk een beter verdienmodel.

  • Profielfoto
    Yosemite

    De enige die hier beter van wordt is het advocatenkantoor en dat is ook waarom ze dergelijke zaken aanspannen.

  • Profielfoto
    steveb

    het lijkt me minder diepgaand dan de fout die google maakte.
    luisteren naar stemmen en de woorden corrigeren valt nog mee.
    maar google medewerkers konden achterhalen van welke locatie en/of personen de gesprekken kwamen.

    check het in deze reportage.
    https://www.vrt.be/vrtnws/nl/2019/07/10/google-luistert-mee/

  • Profielfoto
    steveb

    een vriend van me zei dat het in china nog veel verder gaat.
    hij was er een tijd geleden. toen hij buiten door een drukke straat liep werd blijkbaar zijn gezicht herkend door bepaalde camera ‘s. en verscheen er reclame op de muur met interesses die op zijn Facebook gevonden waren. “hey tom….”

  • Profielfoto
    Facundo

    het lijkt me minder diepgaand dan de fout die google maakte.

    Dan heb je duidelijk de hele zaak niet goed gevolgd. Bij Siri gaat het vooral over de opt-out (die er niet echt is) en het feit dat Siri regelmatig actief kan worden zonder dat de gebruiker zich daarvan bewust is/toestemming heeft gegeven. Zèlfs mic uitzetten biedt geen garantie. Ook bij iphone van m’n werk  had Siri van alles en nog wat bewaard en in “Siri en Zoeken’ gezet. Terwijl ik het van meet af aan had uitgezet. Wat Apple hier flikt is op geen enkele manier goed te praten.

  • Profielfoto
    edbdgsk

    Ik gebruikte Siri regelmatig voor simpele dingen zoals boodschappenlijstjes maken of een kookwekker zetten. Ik merk nu dat dit de laatste twee weken eigenlijk niet meer te doen is omdat Siri steeds minder lijkt te begrijpen. Resultaat is dat ik het nu niet meer gebruik. Jammer.