Den framväxande AI-tekniken påverkar samhället på många olika sätt. Den förändrar hela samhällsekonomin i grunden, vilket vi kunde läsa i vår förra artikel om robotisering av tjänstehandeln i världen med regenerativ AI.
Konsekvensen av AI är att de mest välutbildade hjärnornas kraft överförs till andra, vilket kommer att skapa nya jobb och en ny mer produktiv medelklass med en AI som hjälper.
En hjälpande AI håller också på att göra det möjligt att utveckla sjukvården, så att vi kan upptäcka och behandla sjukdomar innan de ens har hunnit uppstå.
Men om forskare och/eller stater med hjälp av AI kan läsa hjärnaktivitet genom cyberfysikaliska system, då är det uppenbart att begreppen integritet och identitet är hotade och då talar vi plötsligt om en kontrollerande och stjälpande AI.
Inom AI-tekniken talar vi inte längre om en framtida science fiction. Den nya tekniken är här och måste hanteras som i allra högsta grad verklig – som science facts.
AI som hydra

Hydran var en mytologisk varelse för antikens Grekland, en grotesk drake med minst åtta huvuden varav det mellersta sades vara odödligt. För varje huvud som höggs av växte dessutom två nya ut. Dess andedräkt var förgiftad och spred död omkring sig. Hjälten Herakles lyckades till slut dräpa draken i ett av sina stordåd.
Låt oss leka med tanken att AI-teknik med cyberfysiska system (som involverar direkt koppling mellan fysiska system och datorsystem) är en hydra som vet vår geografiska position, så är det sedan länge lätt att med teknikens hjälp att avgöra våra vanor, sömn, tid vid dator, socialt umgänge etc, då har vi att tampas med en modern hydra.
Om AI kan läsa och avkoda hjärnaktivitet på ett sofistikerat sätt, är det en rimlig slutsats att både mänsklig integritet och identitet står inför en existentiell utmaning, som det krävs mänskliga stordåd för att tygla. Låt oss förklara.
Integritet (Privacy)
Integritet handlar om rätten att själv bestämma över vår egen information, våra tankar och vårt inre liv. Om AI kan ”läsa” hjärnaktivitet, innebär det:
- Avskaffandet av tankefrihet: Den sista bastionen av privatliv – tankarna inuti ens huvud – skulle kunna bli tillgänglig för extern granskning. Detta är en fundamental kränkning av mänskliga rättigheter. Rätten att tänka fritt, utan rädsla för att övervakas eller dömas för ens privata tankar, är central för ett fritt samhälle.
- Direkt övervakning av mentala tillstånd: Inte bara ord eller bilder, utan även känslor, minnen och preferenser skulle kunna avkodas. Detta skulle kunna leda till extremt detaljerade ”profiler” av individer, långt bortom vad dagens datainsamling kan uppnå.
- Sårbarhet för manipulation och utnyttjande: Om våra mentala tillstånd kan avläsas, öppnar det för nya former av manipulation kommersiell exploatering med reklam som riktas direkt mot våra innersta begär, eller i värsta fall, politisk hjärntvätt och kontroll.
Identitet
Identitet omfattar vår självuppfattning, våra minnen och värderingar, vår personlighet och våra relationer till omvärlden. Om AI kan interagera med och läsa hjärnan på detta sätt, påverkas identiteten på flera djupgående sätt:
- Förlust av autonomi och självbestämmande: Om våra tankar och göranden kan avläsas eller till och med modifieras, undermineras vår förmåga att agera som självständiga individer. Vem bestämmer vem vi är om våra tankar inte längre är helt och hållet våra egna?
- Osäkerhet kring ”jagets” gränser: Om det finns en direkt koppling mellan en individs hjärna och ett AI-system, suddas gränserna ut för var ”jaget” slutar och ”systemet” börjar. Blir vi bara en del av ett större nätverk, eller en autonom varelse (en hydra)?
- ”Brain fingerprinting” och mental identitet: Om unika hjärnmönster kan användas för att identifiera en person (som ett ”hjärn-fingeravtryck”), kan detta ge upphov till nya former av övervakning och spårning där våra tankar blir en del av vår digitala identitet och potentiellt en sårbarhet.
- Möjlighet till oavsiktlig eller avsiktlig personlighetsförändring: Även om intentionen är god (t.ex. behandling av psykiska sjukdomar), kan en djup interaktion med hjärnan leda till oavsiktliga förändringar i personlighet eller identitet. En illvillig aktör kan avsiktligt försöka förändra en persons identitet och kan innebära en fullständig förlust av egenkontroll.
Det krävs en bred dialog om neuro-rättigheter
Skapandet av en AI-hydra är ingen oundviklig utveckling, men det är inte bara en teknisk utmaning utan också en grundläggande etisk och samhällelig utmaning. Därför är diskussionerna om ”neuro-rättigheter” (neurorights) så viktiga.
Nedan föreslagna nya mänskliga rättigheter syftar till att skydda individens hjärna och mentala aktivitet från oreglerad användning och missbruk av neuroteknik, vilket inkluderar följande självklara rättigheter. En bred dialog och såväl nationella som internationella överenskommelser har ofta efterfrågats, men saknas tyvärr fortfarande, vilket Kreaprenör har påpekat i 15 år i vårt projekt Hjärnans Frihet.
- Mental integritet: Rätten att skydda sina mentala data från obehörig insamling, användning och spridning.
- Kognitiv frihet: Rätten att själv bestämma över sina egna tankar och mentala processer, utan yttre manipulation.
- Psykologisk kontinuitet: Rätten för skydd av identitet och personliga kontinuitet från oönskade förändringar av neuroteknik.
- Skydd mot algoritmisk diskriminering: Att AI-system inte ska diskriminera baserat på hjärndata.
Om samhället inte agerar snabbt och robust med internationella lagar, etiska ramverk och en bred offentlig dialog, finns det en stor risk att de grundläggande pelarna för mänsklig integritet och identitet blir allvarligt komprometterade. Det är därför det är så viktigt att ”beväpnade hjärnforskare” (och de som finansierar dem) blir tydligt medvetandegjorda om och hålls ansvariga för de stora etiska konsekvenser, som deras arbete innebär.

Hur ser ett skydd mot statliga övergrepp och för dataskydd ut?
Frågan är helt central, särskilt med tanke på potentialen för statliga övergrepp. Att skydda hjärndata mot statlig insamling och missbruk är sannolikt en av de svåraste men viktigaste utmaningarna. Här följer en samlad bild av hur ett sådant skydd skulle kunna se ut, med betoning på både juridiska, tekniska och organisatoriska aspekter:
Juridiskt och politiskt skydd
- Internationella Neurologiska Rättigheter (Neuro-rights)
Detta är det kanske viktigaste och mest proaktiva steget. Konceptet med ”neuro-rights” (som diskuteras av organisationer som Neurorights Initiative och Neurorights Foundation) föreslår att nya mänskliga rättigheter måste etableras för att skydda hjärnan och sinnet i den digitala tidsåldern. Chile var först med att införa detta i sin konstitution. - Specifika rättigheter
Dessa skulle inkludera rätten till mental integritet (skydd mot obehörig insamling och användning av hjärndata), kognitiv frihet (rätten att fritt bestämma över sina tankar), psykologisk kontinuitet (skydd av ens identitet och personlighet) och rättvis tillgång till neuroteknik samt skydd mot algoritmisk fördom. Om dessa rättigheter erkänns på internationell nivå (t.ex. genom FN-konventioner) blir det bindande för signatärstater att implementera dem i nationell lagstiftning, vilket skapar ett grundläggande skydd mot statliga övergrepp. - Nationell Lagstiftning
Förbud mot icke-konsensuell insamling och användning med lagar, som tydligt och otvetydigt förbjuder statliga aktörer (inklusive brottsbekämpande myndigheter och underrättelsetjänster) att samla in, lagra eller använda hjärndata utan individens uttryckligt frivilliga och informerade samtycke. Undantag måste vara extremt snäva och granskas av oberoende domstolar (liknande krav för husrannsakan eller telefonavlyssning).
Hjärndata klassas som en särskilt känslig kategori av personuppgifter, liknande genetiska eller hälsodata, under dataskyddslagar (som GDPR i EU). Detta innebär strängare krav på skydd, syftesbegränsning och samtycke.
Införande av stränga straff för otillåten insamling, spridning eller missbruk av hjärndata, särskilt av statliga aktörer.
Lagar som kräver full transparens från statliga myndigheter om eventuella neuroteknikprogram och mekanismer för ansvarsskyldighet om missbruk sker.
Ett uttryckligt förbud mot att använda neuroteknik för att ”läsa tankar” i syfte att utreda brott eller samla underrättelser, då detta kränker fundamentala rättigheter.
Inrättande av oberoende nationella (och internationella) tillsynsorgan, bestående av experter inom neurovetenskap, AI, etik, juridik och mänskliga rättigheter. Dessa organ måste ha befogenhet att granska all forskning och utveckling av neuroteknik, inklusive den som finansieras av staten.
Inspektera statliga myndigheters användning av teknik med möjlighet att utfärda förbud och sanktioner vid missbruk och öppen rapportering till allmänheten och parlament.
Konstitutionellt skydd och införande av uttryckliga ”neuro-rättigheter” i nationella konstitutioner, som Chile har gjort. Detta ger det starkaste juridiska skyddet, då det är svårt att ändra och står över vanlig lagstiftning.
Tekniskt Skydd med system som hanterar hjärndata måste konstrueras från grunden med integritet och säkerhet som högsta prioritet. Det innebär dataminimering om att enbart samla bara absolut nödvändig data.
Hjärndata bör så långt som möjligt anonymiseras eller pseudonymiseras vid lagring och bearbetning. Detta är dock svårt med hjärndata eftersom det är unikt för varje individ. All hjärndataöverföring och lagring måste vara krypterad på högsta möjliga nivå och att lagra data lokalt på individens egen enhet, snarare än i centraliserade, statligt kontrollerade databaser, vilket minskar risken för massövervakning.
Blockchain/Distribuated Ledger Technology (DLT) kan användas för att skapa oföränderliga register över samtycke och dataanvändning, vilket gör det svårare för statliga aktörer att i efterhand hävda ett samtycke som inte givits.
Om möjligt bör tekniken (särskilt AI-algoritmerna för avkodning) vara öppen källkod och kunna granskas av oberoende säkerhetsexperter för att upptäcka bakdörrar eller sårbarheter som kan utnyttjas av staten.
Individer som använder neuroteknik måste ha fullständig kontroll, inklusive en ”kill switch” för att omedelbart avbryta dataflödet och radera data. Detta ger användaren en oberoende försvarslinje mot tvång eller missbruk.
Robust cybersäkerhet är avgörande för att skydda datan från hackare, men också från statliga aktörer som försöker få obehörig åtkomst.
Organisationer för mänskliga rättigheter, medborgarrättsgrupper och expertgrupper (t.ex. neuroetiker) måste vara vaksamma och ha resurser att granska statliga program, larma om missbruk och driva rättsfall.
En fri och oberoende press är avgörande för att avslöja potentiella övergrepp.
Internationellt Samarbete
Stater måste samarbeta för att utveckla gemensamma standarder och förhindra att länder med svagare skydd blir ”testlabb” för oetisk användning.
Forskare och utvecklare inom neuroteknik måste uppmuntras och skyddas när de larmar om potentiellt missbruk, även från statliga uppdragsgivare.
Sammanfattningsvis är skyddet mot statliga övergrepp i ett scenario där AI kan läsa hjärnaktivitet en monumental uppgift. Det kräver en komplex väv av internationell lag, nationell lagstiftning, avancerad teknisk säkerhet och ett vaksamt civilsamhälle.
Det handlar om att befästa rätten till våra egna tankar som en absolut, okränkbar mänsklig rättighet. Om vi misslyckas med detta, är din oro för att integriteten och identiteten är ”rökt och kokt” smärtsamt berättigad.
Vi måste försöka göra uppror, det finns hur mycket fakta som helst från högsta instanser att tekniken skapat en AI-hydra som måste tämjas. Utan att vara paranoid är frågan ytterst relevant. Och allt detta pågår bakom vår förmåga att hantera livet och informationen, ekonomin, krigen, miljön, hälsan och gängkriminalitet.
Vi trodde att vi hade kontroll över våra mobila data och sociala plattformar. Det har vi inte, Facebook, Google och de andra äger datat, vi är produkten.
Nu har samma situation uppstått med biometriska data. Vem ska äga dina?
Vårt projekt måste få mer resurser och plats i media. Lita inte på skenheliga forskare, de fick pengar och en chans men hur slutade det? Någon har tänkt fel!
”Det som redan är klämt ur tuben är svårt att få tillbaka in igen” Tekniken är här, vad används den till och hur ser framtiden ut.
Text: Mikael Eleman för Kreaprenör och projektet Hjärnans frihet.
Svensk referens vad gäller neuroetik är Kathinka Evers – Uppsala universitet
Relaterat
- NewsVoice: Biometrisk identifiering med AI
- NewsVoice: Neuroforskning, AI och nätverksteknik i samverkan – Revolution eller risk?