Kiképzés, videó, MRI: új módszerekkel tárták fel, mit láthat a kutyád
A kutyák máshogy látnak, mint az emberek: csak a szinskála kék és sárga részén lévő színek árnyalatait tudják megkülönböztetni, cserébe viszont sokkal érzékenyebbek a mozgásra, mint az emberek. Elképzelhető, hogy ez amiatt alakult ki így, mert több veszélyre kell felkészülniük, mint az embereknek, de az is lehet, hogy az emberinél jóval érzékenyebb szaglásukkal kiegészítve sokkal részletgazdagabb képet kapnak a világról, mintha érzékenyebbek lennének a színekre. Alapvetően nem igazán lehet tudni, hogy mit és hogyan érzékel egy másik állat (vagy akár egy ember), de egy friss kutatásban mégis módot találtak rá, hogy többet megtudjanak róla, milyen is a kutyavilág.
A kutatók több módszert alkalmaztak: először is el kellett érni, hogy a kutyák nyugton maradjanak, amíg MRI-készülékkel vizsgálják őket. A vizsgálathoz a kutyáknak ébereknek kellett lenniük, hogy megnézhessék azokat a rövid videókat, amelyek nézése közben az agyi aktivitásukat figyelték. Ehhez Emory Berns agykutató nevelési módszerét alkalmazták, amelyet a kutató 2012-ben fejlesztett ki.
Berns először egy MRI-szimulátorba helyezte a kutyákat, amibe egy speciális álltámaszt rakott. A kutyák fülét füldugóval védték a készülék zajától. A kiképzésen átesett kutyák agyának vizsgálatából ekkor kiderült, hogy az állatok különbséget tudnak tenni az ételjutalmat jelentő kézjelek és az annak a hiányát jelző mozdulatok között.
Berns és társai most nagyobb fába vágták a fejszéjüket: a kutyáknak három, egyenként 30 másodperces videót kellett megnézniük, miközben mozdulatlanul feküdtek az MRI-ben. A videókon autók, beszélgető emberek, egy szarvas, sétáló kutyák és egy macska is szerepeltek. Miközben a kutyák (Daisy és Bhubo) videóztak, a kutatók ugyanezeket a filmeket nézték, miközben az ő agyi aktivitásukat is figyelték.
75-88 százalékos pontosság
A felvételek adatait ezután egy Ivis nevű algoritmussal dolgozták fel. Az algoritmus az emberek esetében 99 százalékos pontossággal meg tudta állapítani, hogy melyik MRI-felvétel melyik videójelenetnek felelt meg. A kutyák esetében nem volt ilyen egyszerű a helyzet: míg az embereknél jól azonosítható volt, hogy milyen tárgyat látnak, és a mesterséges intelligencia könnyen össze tudta kötni a felvételekkel, a kutyáknál ez nem így működött.
Mint kiderült, a kutyákat nem érdeklik a tárgyak – viszont amikor már történésekkel próbálták meg összekötni a különböző felvételeket, az Ivis 75-88 százalékos pontossággal meg tudta állapítani, hogy melyik jelenetet láthatták.
A kísérletet egyelőre csak két kutyán végezték el, de annyi bebizonyosodott, hogy a módszerrel viszonylag pontosan meg lehet állapítani, hogy mit láthat a kutya, ahogyan az is, hogy a tárgyak alapján történő azonosítás a kutyák esetében nem igazán működőképes. A kutatók azt remélik, hogy további vizsgálatokkal még többet megtudhatnak a kutyák észleléséről, idővel pedig esetleg más állatokat is bevonhatnak a vizsgálatokba.
Kapcsolódó cikkek a Qubiten: