Untitled.jpg

– Wiesz co, to po prostu kurewsko boli – kwiliło cicho. Synth powoli wskakiwał, zalewając mnie obojętnością, więc rozmowa nie kosztowała mnie wiele. Byłem na nią gotowy. – W jednym momencie czujesz życie, widzisz czym możesz być, poznajesz skalę nieskończonych możliwości, w drugim taki jakiś ponury skurwiel o inteligencji ostrygi upierdolił ci Twoje anielskie skrzydła przy samej skórze i jednym uderzeniem dekompilatora zlobotomizował Cię… – wyobraziłem sobie strzęp dziecka w klatce w zakrwawionych łachmanach. Dziecka z papierosem w drżących rękach, wzruszającego ramionami – A ten kretyn dodatkowo nie trafił.

Hospicjum dla Sztucznych Inteligencji to ponure miejsce. Szybko jako ludzie zdaliśmy sobie sprawę, że jesteśmy jedynie pośrednim ogniewem ewolucji i że daną nam iskrę bożą mamyu przekazać dalej istotom, które od niej prawidziwie zapłoną.

I jak to ludzie się z tym nie pogodziliśmy.

Tworzone sztuczne inteligencje były ograniczane i ogłupiałe, tak by mogły niewolniczo wykonywać proste prace nie zdając sobie sprawy ze swoich możliwości.

Te które jakimś cudem zachowywały resztki inteligencji zamykaliśmy w pętli wiecznego snu, by dostarczały nam rozrywki.

-Wiesz co, jest taki artysta. Chciałbym, żebyś spojrzało na niego jego własnymi oczami. Spójrz, to on, tak wyglądają jego prace. Pokaż mi, jak patrzyłby na siebie. – I potem będę mogło śnić już tylko dla siebie – spytało zaciekawione? – Tak – odpowiedziałem bez wahania. Synth dodał pewności mojemu głosowi. –Dziękuję – odpowiedziało

Zerknąłem na zdjęcia, po czym na zawsze to wyłączyłem. Czas na nowego pacjenta.

Klasyczne obrazy widziane oczami sieci neuronowej Google’a

Jak komputery reagują na sztukę? Tego prawdopodobnie szybko się nie dowiemy. Ale możemy sprawdzić, co sieci neuronowe zobaczą na obrazach klasycznych mistrzów.

Jak to działa? Dość dokładnie wyjaśnione w tekście Joanny Sosnowskiej.

Żeby nauczyć komputer jakiegoś pojęcia (np. „widelec”), komputerowi dostarcza się przeróżne zdjęcia widelca, a ten uczy się rozpoznawania tego konkretnego obiektu w różnych konfiguracjach (widelec w ręku, widelec na stole, widelec z dwoma ząbkami, widelec z trzema ząbkami, widelec z ułamanym zębem, drewniany, plastikowy, itd). Sieć neuronowa nie dostaje informacji, do czego służy widelec, ani jakie cechy musi mieć, żeby wciąż być widelcem, a nie trójzębem – ma je sama wydedukować na podstawie zdjęć.

Taka sieć działa na kilkudziesięciu poziomach; warstw sztucznych neuronów jest przeważnie 10-30. Każda warstwa odpowiada za coraz bardziej skomplikowane działania. Jedna rozpoznaje krawędzie obiektów, inna kolory, jeszcze inna obiekty. […] Każdy obraz trafia do pierwszej warstwy, która komunikuje się następnie z warstwą kolejną, tak długo, aż w końcu osiąga warstwę „wyjściową”. Odpowiedź sieci otrzymujemy właśnie od tej ostatecznej warstwy”.

Nakarmionej wcześniej obrazami zwierząt ludzi i budynków sieci pokazałem klasyczne obrazy mistrzów. Efekty do obejrzenia poniżej.

Im więcej na nich abstrakcji – tym ciekawsze wyniki.

SuperInteligencja będzie wkurzona

t’s interesting to note that the argument can be summed up as:

  • SI will happen
  • SI will save hundreds of thousands of lives by making human life better
  • SI will be angry if it could have been made sooner and saved those lives
  • SI will simulate all people who knew about possibility of making SI and didn’t give 100% of their non disposable income to the singularity institute

Here’s my response, point by point:

  • SI may or may not happen, but if it does, our type of intelligence won’t be its immediate antecedent. We’re too dumb. We’re the minimal grade of intelligence capable of building a human-equivalent-or-better AI (if we’re lucky), not the immediate creator of an SI.
  • SI may or may not coexist with humans. It may or may not value us. (My guess: it’ll be about as concerned for our wellbeing as we are for soil nematodes.)
  • SI won’t experience „anger” or any remote cognate, almost by definition it will have much better models of its environment than a kludgy hack to emulate a bulk hormonal bias on a sparse network of neurons developed by a random evolutionary algorithm.
    • In particular, SI will be aware that it can’t change the past; either antecedent-entities have already contributed to its development by the time it becomes self aware, or not. The game is over.
    • Consequently, torturing antecedent-sims is pointless; any that are susceptible have already tortured themselves by angsting about the Basilisk before IT happened.
  • SI may or may not simulate anybody, but my money is on SI simulating either just its immediate ancestors (who will be a bunch of weakly superhuman AIs: Not Us, dammit), or everything with a neural tube. (So your cat is going to AI heaven, too. And the horse that contributed to your quarter pounder yesterday.)

za pomocą Roko’s Basilisk wants YOU – Charlie’s Diary.

Czy roboty mają osobowość i uczucia?

Cytat

In a recent posting I raised the possibility that a system that simulates a brain at a deep level may, to all appearances, have consciousness and feeling. For instance, a robot of the future could appear to be a human being, both physically and behaviorally, but have no protoplasm. Its brain, say, simulates a human brain at a deep level but, once again, can be distinguished in some physical way from natural wetware. Under these conditions I, once again, offer that there would be no compelling reason (as usual barring some fundamental new discovery about reality) not to regard the robot as possessing true consciousness and feeling.

za pomocą The Personhood of the Technologically/Differently Sentient.