China Justice Observer

中司观察

EngelskaarabiskaFörenklad kinesiska)DutchfranskatyskahindiitalienskajapanskakoreanskaportugisiskaryskaspanskasvenskaHebreiskaindonesiskavietnamesiskathailändskaturkiskaMalay

Hur tar Kina upp plattformsansvar i algoritmiskt beslutsfattande?

Sön 28 nov 2021
Kategorier: Insikter
Redaktör: Shuai Huang 黄帅

Avatar

 

Viktiga takeaways:

  • Kinesiska lagstiftare har insett algoritmernas centrala roll i driften av internetplattformar och definierat det som "automatiserat beslutsfattande" i lagen om skydd av personuppgifter (PIPL) som antogs den 20 augusti 2021 och reglerade denna teknik för första gången.
  • Enligt PIPL ska plattformar bedöma effekten av algoritmer i förväg och är ansvariga för resultatet av beslutsfattandet i efterhand.
  • PIPL utökar rätten att känna till plattformsanvändare och kräver att plattformar bryter de "informationskokonger" som skapats av algoritmiska personliga rekommendationer till användare.


Kinas lag om skydd av personuppgifter (个人信息保护法), antogs i augusti 2021, drar gränserna för internetplattformar som genomför automatiserat beslutsfattande genom algoritmer.

Ⅰ. Bakgrund

Kinesiska internetplattformar, typiskt TopBuzz och TikTok från ByteDance, använder i stor utsträckning rekommendationsalgoritmer för att skicka innehåll och produkter till sina användare.

Sådana algoritmer, som påstås ha stört användarnas rätt till fria beslut och därmed skapat moralisk risk, ifrågasätts dock av allmänheten och tillsynsmyndigheter.

Kinesiska lagstiftare har insett algoritmernas centrala roll i driften av sådana plattformar och definierat det som "automatiserat beslutsfattande" i lagen om skydd av personuppgifter (nedan kallad "PIPL") som antogs den 20 augusti 2021 och reglerar denna teknik för första gången.

I enlighet med PIPL avser automatiserat beslutsfattande aktiviteterna att automatiskt analysera och bedöma individers beteendevanor, hobbyer eller ekonomiska, hälso- och kreditstatus genom datorprogram och fatta beslut om detta. (Artikel 73)

Dessförinnan rådde delade meningar om plattformarnas ansvar för automatiserat beslutsfattande. Till exempel ansåg en del att plattformarna inte borde vara ansvariga för resultatet av deras automatiserade beslutsalgoritmer, som i huvudsak var en sorts neutral teknologi. PIPL klargör dock motsatsen.

Ⅱ. Restriktioner på plattformar

1. Regulatorer granskar algoritmerna direkt

Som personuppgiftsbehandlare ska plattformar regelbundet granska att deras behandling av personuppgifter överensstämmer med lagar och administrativa föreskrifter. (Artikel 54)

Detta kräver att plattformar regelbundet granskar sina algoritmiska automatiska beslutsfattande och andra informationsbehandlingsaktiviteter.

Enligt regeln kan tillsynsmyndigheterna även genomföra interna revisioner av driften av plattformarnas algoritmer, istället för extern tillsyn över plattformarnas agerande och enbart konsekvenserna.

Följaktligen gör regulatorerna algoritmerna som det direkta reglerande objektet, vilket gör det möjligt för regulatorerna att ingripa i tekniken och detaljerna i automatiserat beslutsfattande.

2. Plattformar bedömer effekten av algoritmer i förväg 

Som personuppgiftsbehandlare ska plattformar göra en konsekvensbedömning av personuppgiftsskydd i förväg och registrera behandlingsinformationen om de använder personuppgifter för automatiserat beslutsfattande. (Artikel 55)

Bedömningen av plattformarna ska omfatta följande:

A. Huruvida ändamålen, metoderna eller någon annan aspekt av behandlingen av personuppgifter är lagliga, legitima och nödvändiga;

B. Inverkan på personliga rättigheter och intressen och risknivå; och

C. Huruvida de säkerhetsskyddsåtgärder som vidtagits är lagliga, effektiva och står i proportion till risknivån.

Därför ska plattformarna göra en förhandsbedömning innan algoritmer för automatiserat beslutsfattande går live. Riskbedömningen inkluderar legitimiteten och nödvändigheten av det algoritmiska automatiserade beslutsfattandet, såväl som dess påverkan och risk.

Defekt algoritmiskt automatiserat beslutsfattande från plattformar kan skada medborgarnas egendom och personliga rättigheter, till och med allmänna intressen och nationell säkerhet.

Därför kan de negativa konsekvenserna påverka tusentals användare. Vid den tidpunkten, även om plattformarna hålls ansvariga, kan det vara svårt att återvinna den skada som redan har skett.

För att förhindra en sådan situation upprättar lagen ett förhandsbedömningssystem för plattformarnas algoritmer i ett försök att ingripa i algoritmerna i förväg.

3. Plattformar ansvarar för resultatet av beslutsfattandet i efterhand

Plattformar ska påta sig följande skyldigheter för resultat av automatiserat beslutsfattande (artikel 24):

A. Plattformar ska säkerställa att resultaten är rättvisa och opartiska

Där personuppgiftsbehandlare genomför ett automatiserat beslutsfattande med personuppgifter ska de säkerställa insyn i beslutsfattandet och rättvisa och opartiskhet i resultaten, och ska inte ge enskilda individer orimlig särbehandling när det gäller transaktionspriser eller andra transaktionsvillkor.

B. Plattformar ska tillhandahålla automatiska beslutsfattande alternativ som inte riktar in personliga egenskaper till sina användare.

Där pushbaserad informationsleverans eller kommersiell marknadsföring till individer utförs med hjälp av automatiserat beslutsfattande, ska alternativ som inte är inriktade på individernas personliga egenskaper eller enkla sätt att vägra ta emot tillhandahållas individerna samtidigt.

C. Plattformar ska göra förklaringar av beslutsfattandets resultat.

Om ett beslut som har en väsentlig inverkan på en enskilds rättigheter och intressen fattas med hjälp av automatiserat beslutsfattande ska den enskilde ha rätt att begära förklaringar från personuppgiftsbiträdet samt rätt att vägra att fatta beslut. beslut av personuppgiftsbiträdet enbart med hjälp av automatiserat beslutsfattande.

Regeln håller plattformar ansvariga för resultatet av automatiserat beslutsfattande, inklusive:

S. Regeln erkänner inte försvaret av "teknikneutralitet" som har använts av plattformar. Plattformar bör ansvara för resultaten av det algoritmiska automatiserade beslutsfattandet och bör säkerställa att resultaten är rättvisa och rimliga.

B. Regeln utökar rätten att känna till plattformsanvändarna. Användarna kan begära insyn i de automatiserade beslutsresultaten samt förklaringar från plattformar i händelse av "en väsentlig påverkan".

C. Regeln kräver att plattformar bryter de "informationskokonger" som skapats av algoritmiska personliga rekommendationer till användare, och kräver att plattformar skyddar användarnas rätt att veta.

III. Våra kommentarer

Kina har gjort ett genombrott i PIPL genom att lägga till lagregler för plattformars algoritmer för automatiserat beslutsfattande. Det behöver dock fortfarande förfinas ytterligare. Till exempel klargör inte lagen:

A. förutsättningar för plattformar att initiera algoritmbedömning.

B. om och i vilken utsträckning bedömningsrapporterna kommer att offentliggöras efter att plattformar har utvärderat sina algoritmer, och 

C. hur plattformar ska vara ansvariga för skador som orsakas av deras algoritmiska automatiserade beslutsfattande.

Jag antar att kinesiska tillsynsmyndigheter fortfarande undersöker möjligheten att anta en rad specifika förordningar för att ytterligare implementera PIPL.

 

Foto: Road Trip med Raj on Unsplash

 

 

 

 

 

Medverkande: Guodong Du 杜国栋

Spara som PDF

Relaterade lagar på China Laws Portal

Du kanske också gillar

Domstol i Peking släpper rapport om kränkning av medborgarnas personliga information

Genom att kartlägga utvecklingen av Kinas dataskyddslandskap från 2009 års straffrättsändring till 2016 års cybersäkerhetslag och till 2021 års lag om skydd av personuppgifter, en avgörande vitbok som utfärdades av Beijing High People's Court i november 2023 understryker de kinesiska domstolarnas roll när det gäller att verkställa stränga regler för nätoperatörer och skydd av medborgarnas personuppgifter.

Kina utfärdar riktlinjer för utgående överföring av personlig information

I maj 2023 utfärdade Cyberspace Administration of China (CAC) "Riktlinjer för arkivering av standardkontrakt för utgående överföring av personlig information (första upplagan)", som tillhandahåller specifika krav för metoder, förfaranden och material för arkivering av standardkontrakt för utgående överföring av personuppgifter.

Förseglingssystem för ungdomskriminalregister i Kina

Enligt kinesiska strafflagar, där en ungdom har fyllt 18 år när han begår ett brott och döms till tidsbestämt fängelse på fem år eller ett lindrigare straff, ska de berörda brottsregistren förseglas för bevarande.

Kina utfärdar standardkontrakt för dataexport

I februari 2023 utfärdade den kinesiska cyberspaceadministrationen "åtgärder för standardkontrakt för export av personlig information" och "standardkontrakt för export av personlig information".

Kina ändrar lagstiftningen

I mars 2023 antog Kinas högsta lagstiftande församling, National People's Congress, den ändrade lagstiftningslagen.