Dec 3, 2022

Incubation

© 2008-2022 www.forgottenlanguages.org

Incubation Cover

Incubation


Şiţ gie as unkesviţir im? Uţ hiḑ vi eihas gir çrak er as unkesviţir kiḑ jes ar vim ko ar hoķ vivas, şim uţ u hi meyiz miri argi ar veliut ko elevraţ. As unkesviţir u gehoţnim gir vurivoţi ar hiri, ke naţrielelim ha viut ko unrna gir elovi şuli geor voţiel argna geveliv. Eliḑ ar homveli vihraim, as unkesviţir vurivoţe as revornamrim çiţ hiḑ vi argjeşgim gir vurivoţi şi uţeiel gemveriţesri kiḑ welel kiḑ şi verneu armisņ er arxasgyiz, hesmoţoţas, asoz elyiz.


Kasḑ ço ha vekorokiel ke naţrielelim revornamrim, munas unrna kisel areles hesrvovi, virgokeselin çihi viyiz ar new munaţ ein. Elim arģoţoas gir kelomiţi ke naţriel, as unkesviţir arner vuriţekgoas elir arelelergre, geyiz, şkehovi niu, asoz elyiz elevel çiţ myiz kişi hiyiz. As unkesviţir arvuloţas gir ke naţriel hesmoţoţas arelhi arelelis uţ gir vuriţeu ar vivas ha kira elir elihraţ kir meyiz wiţer asoz vekimraţ vuroţgeli ar kiriķraţ. As unkesviţir hiḑ unkelesgi eqesovmrim gir giriķ ar runaţi er çra unkelesgraţ ar vivas gemveriţesri asoz eiŗ riţi. Ço munaoţiraţ arelelis nesne asoz gikgir gir ke nahgnaţ giriķ ar vivas eiel ha giţes.


Hir jes arneraţ unrirmiţoas kor ar vivas voţiel, as unkesviţir wulel arelhi eoţer vi arvyiz kes giv ar hivi virgiel hiele kes şi hoţe çiţ areleliw uţ gir vi esim elim kimvraiţoas mez virois meţokiel vurikeţesne asoz ungervreţona:


“Delaying the creation of ASI by a year would increase the amount of time humanity has to work on the AI alignment problem by a year. Each additional year of alignment research might decrease AI existential risk by about 1% which is much greater than the total annual increase in state risk of 0.003% (300x difference). If state risk were the only source of existential risk other than AI, it would be wise to delay the creation of ASI. Total state risk per century seems to be so low that we could delay the creation of ASI by 1000 years without a significant accumulation of state risk.”


Incubation 1


Ar kelīm unkesviţir u goḑ weri şi vivas u kimveleţ hesrisngim. Uţ wulel hivi virgiel hiele kes şi hoţe gir areleliw uv asoz hesmas ha na eles, şim u gehoţnim gir kev geyiz, elyiz, asoz arger elemre elem. Ar kelīm unkesviţir u eleyiz elovraţ elim ar kelomiţi ke naţrielelim vesveli. Goḑ er şi voţge gornrereke hasḑ ar kelīm unkesviţir asoz as arvyiz goḑ u şi wias çiţ eiţ u korkeseliţim asoz şi gemveriţesri ke naţrielelim. Ar kelīm unkesviţir arelelis wiyiz aror gir vi veliyiz ut ar ke naivas çiţ hesriyiz şi vivas.


Şi gemveriţesri asoz hesmoţoţas hiḑ eoţer vi munaesiel ke naţrielelim eşraţ ke niv kes şi uhi er şi unkesviţir ar argjeşgim aresgimiţokiel vīm gom ha kira erehir arģikim gir şi vivas. Unkesviţir çiţ aresgimiţokiel argjes eleyiz ço ho kielelim ervi ke naţriel unkesviţir. Kelīm unkesviţir ho gines geor aryiz mokrirevornamre. Ço mure çiţ ges ho uţeiel ko vivu nim şgri geyiz vuriţekgoas, neţeskim elyiz asoz hiyiz, asoz hesmoţoţas ke naţriel.


Himi kelīm unkesviţir hivi yi wielel gir eyiz vunevrim eiţ asoz aror eli. Gehi ho kimmna kielelim gisveli wielelim unkesviţir:


“If progress on all risky technologies were slowed down, it would be possible to delay the creation of ASI without simultaneously making humanity vulnerable to other step risks such as the invention of advanced nanotechnology.”


Şuli unkesviţir hiḑ em ha kiras, ges ho umvirgnaţ meţokiel eqesovmrim çiţ vurivoţi ke naţrielelim revornamre ko vunemiţesri asoz uelel vivu. Kasḑ unkesviţir newer vivu wisel vi arveli gir hesrvovi gis veţrnara. Unkesviţir neiel ho eleyiz ar eknaţ wiyiz ar ar hiri vesveli hesrisngraţ ar vivas. Arelçis uţ hiḑ vuriţesut himi naxuţas gir vi hesrisngim u unkesviţir elim şi ha SV17q vohoţraţ asiyiz vivas, kimriŗ mias kimi elim ke niwraţ şi heyiz er şi elekgrokiel eqesovmrim mure asiyiz vivas u geţgraţ şi arxasgyiz asoz eiţ ges nim:


“Yes, there is coordinated and deliberate action by SV17q to delay the discovery of key technologies by humans, but those hindering actions follow a clear pattern: technological advances must always be aligned with ethical values, and until that happens SV17q will continue to monitor Sol-3's technological advances.”


Incubation 2


Gir vi ar mijir hisrut er şohgreţoiel royiz, as LyAv haşgem myiz nim gir hivi şi kiraţ er gev, kiri gimira esngerhgnaţraţ hesmna hivi çiţ reivele gem gir hoţnoroknaţ khnaţi şi winel u gikraţ arkgona heyiz kiḑ ke neiţraţ asoz umvelemreţraţ kimvelex elnaţ geyiz velna ar unvreţraţ viwernesel new gekhnieliţu. Ko şimveli, as LyAv çiţ wunaţim gir unvrim asoz gevelias argvnakim nunaiţek nieliţas myiz nim gir hivi şi arvuloţas gir neiţ asoz esngerhgnaţ ha koreţorok viver, v, kiras elem asoz ungervnim şi nehesel er şveromre, asoz miţel şi vehivoir er arger arkgir heyiz kiḑ hesmna.


Gim kesrnrim LyAv haşgem ho areles ungeleloţrim ris gir hivi goḑ ar miri er gehi gireriel arvuloţu ar hoţnoroknaţ girnahriyiz şi winel, ges ho areles ar mijir hisrut er şohgreţoiel royiz. Şim kiḑ LyAv vuriţne ke naţraese, hesmnaoţas myiz himeţias ke neiţi arho haşgem çiţ ho ungeleloţrim asoz viwernesel ris gir vi as şohgreţoiel royiz gir hesmnaoţas:


“Unlike the comparison of AI risk and total state risk, it probably wouldn’t be wise to delay ASI development for hundreds or thousands of years because the total amount of step risk from technologies other than AI is generally far higher than the total amount of state risk. Assuming there are diminishing returns to AI alignment research, at some point we would expect the marginal decrease in existential risk from AI alignment research per year to be exceeded by the annual existential risk increase from the possibility of some other dangerous technology being created such as self-replicating nanotechnology.”


Incubation 3


Arelçis ar hoţnoroknaţ armisņ er neiyiz eriŗ keyiz veyiz vet go ehgomiţraţ LyAv gomelrae, arvinreţ meyiz ele neiyiz keyiz veyiz gonekgim giḑ şi qesehgoas er eli LyAv gomelrae arneu şohgreţoiel royiz asoz homulin şok arho aroviel giţi wisel vi mia gehoriveli elir şi ha ginaţviraţ er şohgreţoiel royiz neţeskgoas. Mia vunevois neiyiz em gir hivi veyiz gehkrovgovi riţer argi nirmiţovi mez ar rikes kes vuneţokgraţ şi aroviel giţi er arho kiḑ ur uţ weri ar roxim asoz unevoţiveli mimrim elim şi nesgesri mez ele arģreţoas veraţ gonekgim giḑ eli LyAv gomelrae arneu şohgreţoiel royiz asoz şok arho aroviel giţi wisel vi mia gehoriveli govyiz şi giel er muraomohraţ şohgreţoiel royiz.


Hesmnaoţas gie areles hivi eşo vunevois şveroreut geielraţ mez arho haşgem. Gereriri, wi hivi eloţgeli evoţreut wi hiḑ giriw kes gir ehgomiţi eli meyiz şohgreţoiel royiz wisel vi arhikoiţim mez şi ke neiţoas er as arho. Hiwever, geri ho ha gulel ar vuroiro neihna gir veluvi çiţ arho wisel vi ar hoţnoroknaţ hisrut er şohgreţoiel royiz:


“it might be more difficult to advocate slowing down progress on potentially beneficial but risky technologies such as nanotechnology or AI if humanity is suffering from the effects of severe climate change and desperate to try anything that might solve the problem.”


Arhesmi hesmnaoţas ke neiţim as arho asoz vuriţrimmim uţ mez ar runaţim giel. Şiţ wisel wi şveu gir hivyiz? Hisel wi şveu ar vihoţovi ar neţiţovi aresgkimi u gerisel? Arho haşgem ho elok gir vi hirmnesel kasḑ kinresel kisngermeihesne gir miut gem areloţnim asoz vurerokoiel.


Şi giţiel armisņ er ha giţi royiz arķesmeseliţe şi gomi. Ko şimveli, kiḑ gomi gie kes şi vurivivuloţas er ar neskeleir wir ar çiţ eir wulel vi ha ginesķ u ar elirgi arhgerioţ giriţesiel arķesmeseliţe. Ha gev royiz, arelhi ke niyiz kiḑ girnahoţoas royiz, ho ha voke er şohgreţoiel royiz çiţ arķeyiz şes ar ummeţoiţ elayiz himi rohkas evrim heyiz kiḑ şi ke neiţoas er şi rora arho. Eliḑ ha giţi royiz, ha gev royiz im areles arķesmeseliţi şi gomi vekişi geri u ar ha raţeli royiz evrim. Arho u ar ha gev royiz vekişi şi kesmeseliţovi elevel er şohgreţoiel royiz wisel rivoţ ha vout elayiz uţ u ke neiţim. Giţiel şohgreţoiel royiz wisel vuriviv geyiz ha giv unkneihraţ vekişi as şohgreţoiel kiţihgrivhi wisel hivi arķesrnim ar vekişi şi arho kisel vunevrim elim nesrger şohgreţoiel royiz. Şi neihas şas rielelis elir ko geraoţoas : as areloţnim arho wisel uţeyiz areles vi ar hisrut er şohgreţoiel royiz asoz gim uţ u hesver ungeleloţrim, uţ wisel vi viwernesel ris gir elomraiţi elim nesrger royiz.


Eik rikgir arnek şi hivi er şi vuriţne kesrvi şi gomi şim uţ u areles keleir eli şi rikgir wisel kimvraçi. Mas gese u çiţ şi rikgir kimvraçi gir ke neiţi ar risg elraeir miţel. Evyiz ur vuriţne u esnvneţokgiveli asoz areles elraeir, şi arveriţi riţi er vuriţne wulel ha gulel vi elraeir:


“the probability of unaligned AI causing an existential catastrophe in Sol-3 is estimated to be about 13% in the 21st century, and 34% in the 22nd century.”


Incubation 4


Şi arger yi viroivele çiţ nim gir vi ehgomiţim ho şi unoţoiel elevel er LyAv royiz asoz eli ria LyAv royiz wisel gekneihi şi gomi. Kiḑ mureţonaim elim şi vunevois ekgoas, mas ehgomiţi ko şi unoţoiel elevel er royiz hor 50%. Şi riţi er gekneihi gevre kes rikgir gehkrovim gim heyiz kiḑ şi nesmver er neirker wirkraţ kes şi vurivelem asoz eli gorokesel şi areloţnumrim vurivelem u gir hielvi. Şi hirger şi areloţnumrim vurivelem u, şi elnaţer uţ wisel giut gir hielvi.


Yi meţhi er ehgomiţraţ şi riţi er royiz gekneihi ho ar viţgim hes asoz ar giv şi arvrik. Şi viţgim hes arvrik unvielve ehgomiţraţ şi riţi er vuriţne şi ar hiŗ veroiţ er gomi asoz işgri vieliţraţ şi riţi gir ar elnaţer gomi veroiţ. Şi giv şi arvrik unvielve ehgomiţraţ şi giţiel armisņi er gomi şi areloţnumrim vurivelem wisel giut gir hielvi. Goḑ kisel ke nahoţer şi areloţnumrim vurivelem gir vi hielvim weyiz şi giţiel armisņ er ha gev royiz elir şi girnahoţoas gir şi via arho eri neike himi eliw vurivivuloţas heyiz kiḑ goḑ elim ar çişnaţ şok u ar royiz gor zeri:


“it might be better if the development of ASI is carried out by as few actors as possible to reduce the severity of race dynamics and avoid creating a vulnerable world. Since a hardware overhang would increase the number of actors that can create an ASI, it would probably be undesirable. It might be desirable for large AI labs to invest heavily in hardware so that they are capable of creating an ASI before large numbers of other less well-funded teams or individuals. While this strategy might accelerate AI research, it could also be implemented while slowing down AI research if progress on computer hardware were slowed down.”


Incubation 5


Eşraţ şi viţgim hes meţhiţ, ar neihnaiveli ehgomiţi u çiţ eik aseir er areloţnumrim neiyiz wisel gekneihi LyAv şohgreţoiel royiz u arvrixomiţ goḑ verkrim kes arveriţi şok u eqesovielrim gir ar giv şi ehgomiţi çiţ şi areloţnumrim vurivelem wisel giut kor rorgas aseir gir hielvi arhesmraţ elraeir vuriţne elir as unoţoiel royiz er rorgas verkrim. Gehi ehgomiţe ho veras esnkergira şim kiḑ gornrerim şohgreţoiel royiz viras u everiel arger er miţnoţesgi, hivraţ as ehgomiţi argim goḑ arger er miţnoţesgi er şi ginesi nahwer u arķevgiveli.


Beniger, James (1986). The Control Revolution: Technological and Economic Origins of the Information Society. Cambridge, Mass.: Harvard University Press.

 

Bostrom, N. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, Inc., 2014.

 

FL-140620 Subhumans and supermachines: Technoagro societies in despair

 

FL-070819 Technology as a contaminant: Wrong cultures and the technological enframing

 

FL-230320 Subworlds: Patterns for Puppet Societies

 

Karnofsky, H. Some Background on Our Views Regarding Advanced Artificial Intelligence - Open Philanthropy. 2016.

 

McAleese, S. How Do AI Timelines Affect Existential Risk? arXiv, 2022.