Unustasid parooli?



     
Sisseloginud kasutajatele märgistatakse automaatselt teksti piirkonnad, mis on muutunud alates viimasest lugemisest. Lisandunud osa on roheline, eemaldatud osa punane.
Lisaks märgistatakse sisseloginud kasutajatele menüüs täiendavate värvide abil artiklid, mis on kasutajal loetud (hall), ning artiklid, mis on peale lugemist täienenud (roheline).

   

     

Pealkiri :
Id (lühend aadressiribale) :
Autor ja viimase muudatuse autor :
Loomise aeg ja viimane muudatus :
Teksti pikkus :
Luba ligipääs ainult kasutajanimedele (eralda komadega). Autoril on alati ligipääs. :


Teekond >> Doktori projekt


Doktori projekt
 
 
http://www.youtube.com/watch?v=yln_IGDuOCo - "When Robot Arm Programmers get bored"
 
 
In english:
http://www.threelaws.eu/wiki/definition_of_self_deception - Definition of self-deception in the context of robot safety
 
 
Tehisintellekti ohutus, mõistlikkus või sõbralikkus, kuidas keegi nimetada tahab. Üks põhiideid on implitsiitne mittepööratavate tegevuste vältimine v.a eksplitsiitselt lubatud juhtudel. Eesmärgisüsteemi osas operantsed (eelistatud väärtuseni viivad) eesmärgid, mitte maksimiseerivad eesmärgid. Seega eesmärgisüsteemil kaks osa: õigused + seadistuspunktid. Lisaks riskide hindamise ja mõtlemise piiranguid puudutavad küsimused.
 
Osa faile leiab ka siit:
 


 
 
Osa faile olen tõstnud ka siia wikisse ning nende tekstitäiendused on juba ainult siin.
PDF-failid ja nende märgistatud ja kommenteeritud versioonid on ainult seal ülaloleval aadressil.
 
Käesolevat wikit võib käsitleda kui http://en.wikipedia.org/wiki/Open_notebook_science nähtust.
 
 
Projekti wiki jaoks on nüüd eraldi domeen:
Sealne sisu on sama, kui roland.pri.ee/wiki all, aga ainult tehisintellekti ohutuse jaotus on näha ja seega mugavam kasutada.
 
 
Sissejuhatus
Kui loed alajaotusi "mida teha" ja "kuidas teha", siis võid näha et paljud küsimused on vähemalt teoreetiliselt kenasti lahendatavad, kui vähemalt aktsepteerida, et mõtlemise vead ebakindla ja piiratud informatsiooni tõttu on mõnel määral paratamatud. 
Järgnevas kahes jaotuses on esialgne tegevuskava ja lahendusideed pikemalt üles loetud:
http://roland.pri.ee/wiki/doctor_why_how - Kuidas teha
 
 
Üks oluline probleem aga jääb - see on tehisintellekti enesepettuse probleem, mis muutub raskeks seoses tähelepanuga. See paistab mulle hoopis kõrgema taseme probleem kui lihtsalt need mõtlemise vead, mis tulenevad info ebapiisavusest. 
Selle kohta on nüüd siin wikis eraldi pikem peatükk: http://roland.pri.ee/wiki/doctor_problem_of_self_delusion
 
 
---
 
Sarnasel teemal ja kattuva ideega on üks päris põhjalik artikkel. Viide artiklile ja minu arutelu on siin:
 
---
 
Natuke veel taustainfot ja viide minu doktoritöö idee algallika Adam Eppendahli kodulehele:
 
from   Roland Pihlakas <roland@pinal.ee>    Jun 1 
to   singularity@v2.listbox.com  
date  Jun 1, 2007 5:09 AM  
subject  Re: Safe forms of AGI [WAS Re: [singularity] The humans are dead...]   
 
On 5/31/07, Chuck Esterbrook <chuck.esterbrook@gmail.com> wrote:
> On 5/29/07, Richard Loosemore <rpwl@lightlink.com> wrote:
> > Instead, what you do is build the motivational system in such a way that
> > it must always operate from a massive base of thousands of small
> > constraints.  A system that is constrained in a thousand different
> > directions simply cannot fail in a way that one constrain by a single
> > supergoal is almost guaranteed to fail.
>
> Richard, these ideas (including your Oct 2006 post) are interesting.
> No angst or boredom here.
>
> But my next question is: How does one go about building the "massive
> base of thousands of small constraints"? Does each constraint need to
> affect the system in a slightly different manner? If so, are these
> hand coded, generated, ...?

You might want to take a look at this:
http://homepage.mac.com/a.eppendahl/work/robotics.html
 
See the "Reversibility" section.
 
Using reversibility the "goals" or "needs" of AI are more tightly
constrained with permissions. Constraints need no handcoding, only
permissions do, somewhat similarly to goals.
 
As I see it, it is more appropriate to implement using control theory
(or operant learning and behaviour in models of natural thinking) than
using reinforcement learning.
 
Its somewhat unrefined, but it looks like something orthogonal to
usual approach to goal systems.
 
 
---
 
If your Singularity will not start, you may be able to start it in safe mode.
- thursday, may 24. 2007, Broca @ #sl4 @ irc.lucifer.com / irc.sl4.org
 
 

kommentaarium spämmi tõttu ajutiselt välja lülitatud




Teekond >> Doktori projekt




  Saada kiri