Já si myslím, že lze určit podmínky fungování které pokud budou splněny, tak bude možné říct, že daný systém má vědomí podobné tomu lidskému. Samozřejmě že mohou existovat i jiné formy vědomí, které v této definici nebudou obsaženy, ale o to nejde. Podmínka bude taková, že když je splněna, tak je možné s jistotou říct, že jde o vědomí, kdežto pokud splněna nebude, tak to nutně neznamená, že se o vědomí nejedná. Na základě pochopení vnitřních procesů implementace a zároveň pozorováním chování systému lze s vysokou mírou jistoty rozlišit, zdali daný systém má vědomí a nebo ne. Hlavní problém současného přístupu k AI vidím v tom, že se vstupní signál nějakým způsobem předzpracuje na poměrně jednoznačnou hodnotu, a ta je teprve potom použita v řídícím algoritmu. To je velmi výhodné z hlediska efektivity implementace, ale z hlediska dosažení "skutečného" umělého vědomí je tento přístup špatný. Je to jako by vás někdo uzavřel do toho čínského pokoje, a všechny počitky posílal pouze jako ten papírek. Člověk tak ale nefunguje (alespoň doufám...), a zvířata také ne.
No a aby bylo trochu zábavy, tak si dáme filozofickou otázku:
Představme si, že máme virtuálního mravence řešícího Santa Fe problém (UTFG). Mravenec je implementován jako backpropagation síť jejíž tři výstupy určují akci (otočit vlevo, vpravo, jít rovně) a dále má několik výstupů, jenž nejsou použity pro žádnou akci, ale jejich výstup je v dalším "tahu" přiveden na vstupy této neuronové sítě. Váhy neuronové sítě jsou naučeny pomocí evolučního algoritmu, aby byl do začátku nějaký rozumný základ. Mravenec se pak v prostředí pohybuje a hledá potravu, pokud jeho nějaká akce vedla k úspěchu, je použita pro trénování ve tvaru (políčko před mravencem, akce), ale s velmi nízkým parametrem učení aby se síť nerozbila. Protože mravencova neuronová síť obsahuje zpětnou vazbu, jedná se o vědomí a nebo ne? Prožívá něco tento mravenec?