Kommer en AI-robot kunna uppfatta en fjärde dimension?

Hur går det till när hjärnan försöker skapa sig en bild av det okända? I en nyligen publicerad artikel beskriver kognitionsforskaren Magnus Johnsson vid Malmö universitet varför det finns en gräns för vad människan kan föreställa sig och hur kunskapen kan användas inom AGI, Artificiell General Intelligence.

Varje gång vi ser eller föreställer oss något, aktiverar vi i stor utsträckning samma representationer. Och nya saker kräver nya kombinationer av dessa. Men det måste finnas igenkänningsbara drag till hands som har potential att skapa det okända.

I artikeln ”Perception, Imagery, Memory and Consciousness” riktar kognitionsforskaren och datavetaren Magnus Johnsson in sig på två perspektiv: Dels ett teoretiskt resonemang om hur den biologiska arkitekturen fungerar i en däggdjurshjärna. Dels hur denna kunskap kan implementeras i en artificiell kognitiv arkitektur enligt samma princip.

– Jag antar att det med stor sannolikhet finns ett antal enkla principer som naturlig kognitiv är uppbyggd kring, eftersom evolutionen aldrig klarat av att bygga upp en sådan avancerad arkitektur annars. Och när dessa väldigt enkla principer används på många olika nivåer, då blir det oerhört komplext, förklarar Magnus Johnsson.

Så lagrar hjärnan intryck

Kognitionsforskarna utgår från så kallade ”features” som är hjärnans uppfattning av ett objekt. En feature kan till exempel vara en linje på en stol som ögat registrerar. När en stol syns i en viss vinkel kommer linjen att hamna som en feature på en viss plats i hjärnbarken. Detta kallas topologibevarande (eller ordningsbevarande) representation. Den här arkitekturen använder hjärnan för att bygga upp en förståelse för det visuella intrycket, förklarar Magnus Johnsson.

Dessa topologibevarande kartor är i sin tur uppdelade i olika sinnesmodaliteter, beroende på vilket sinne som registrerat intrycket.

– De enklaste representationerna lär vi oss väldigt tidigt och de har en benägenhet att låsa sig. Ju högre upp vi kommer i inlärningshierarkin desto mer flexibla och möjliga att modifiera är de, berättar Magnus Johnsson.

Förenklat uttryckt kan man säga, att varje gång vi ser eller föreställer oss något, aktiverar vi i stor utsträckning samma representationer. Och nya saker kräver nya kombinationer av dessa. Men det måste finnas igenkänningsbara drag till hands som har potential att skapa det okända. Eller åtminstone tillräckligt många kända representationer, där vi sedan själva kan fylla i den informationen som saknas.

Kattexperimentet

Som exempel nämner Magnus Johnsson ett berömt kattexperiment. Katter som i tidig ålder föddes upp i konstruerade rum utan horisontella linjer, kunde senare i livet inte se linjer som avgränsade rum, som exempelvis mötet mellan golv och vägg. Det var för sent för katten att förstå.

– Det finns en gräns även för normalt utvecklade hjärnor. Ett exempel är de spatiala dimensionerna. Vi har inte de rätta representationerna för att föreställa oss fyra dimensioner. Allt vi kan tänka oss begränsas av dessa featurebyggstenar.

Men sådana byggstenar kan teoretiskt byggas i AI och användas inom AGI, Artificiell General Intelligence, menar Magnus Johnsson.

– Då räcker det inte med ”deep learning” som idag används inom många områden, och som ger djup kunskap inom ett smalt område. För att bygga en konstgjord hjärna med en sådan kapacitet, krävs det att man skapar ett komplett kognitivt system där alla sinnesmodaliteter är ihopkopplade med varandra, säger Magnus Johnsson vid Malmö universitet.