செயற்கை நுண்ணறிவின் அறநெறிகள்

கட்டற்ற கலைக்களஞ்சியமான விக்கிப்பீடியாவில் இருந்து.

செயற்கை நுண்ணறிவின் அறநெறிகள் ethics of artificial intelligence) என்பது செயற்கை நுண்ணறிவு தொழில்நுட்ப அமைப்புகளுக்கான அறநெறி ஆகும்.[1] இது தொழில்நுட்ப அறநெறிகள் புலத்தின் ஒரு கிளைப்பிரிவாக்ம். இது சில நேரங்களில், செயற்கை நுண்ணறிவு அமைப்புகளை வடிவமைத்தல், செயலாக்கல், பயன்படுத்தல், கையாளுதல் பற்றிய மனிதர்களின் ஒழுக்க நடத்தை பற்றிய அக்கறையாக கருதப்படுகிறது.மேலும் எந்திர நெறிமுறைகள் எந்திரங்களின் நடத்தை குறித்த அக்கறையாக கொள்ளப்படுகிரது.

தனிப்புல அறநெறி அணுகுமுறைகள்[தொகு]

எந்திரனுக்கான அறநெறி[தொகு]

" எந்திரன் அறவியல் " (சில நேரங்களில் " மனித எந்திர அறவியல் ") என்ற சொல் மனிதர்கள் எந்திரன்களைகளை எவ்வாறு பயன்படுத்துகிறார்கள் மற்றும் நடத்துகிறார்கள் என்பதற்கான அறநெறியைக் குறிக்கிறது.[2] எந்திரன் அறநெறி செநு வின் அறநெறியுடன் இடைவெட்டிக் கொள்கின்றன. எந்திரன்கள் அனைத்தும் புறநிலை எந்திரங்களாக மட்டுமே இருக்க,. செநு மென்பொருளாக மட்டுமே இருக்க முடியும்.[3] அனைத்து எந்திரன்களும் செநு அமைப்புகள் வழி செயல்படுவதில்லை , மேலும் அனைத்து செநு அமைப்புகளும் எந்திரன்கள் அல்ல. மனிதர்களுக்கு தீங்கு விளைவிக்கவோ அல்லது பயனளிக்கவோ தனிப்பட தன்னாட்சியிலும் சமூக நீதியிலும் எந்திரன்கள் எவ்வாறு பயன்படுத்தப்படலாம் என்பதை எந்திரன் அறநெறி கருத்தில் கொள்கின்றத்.

எந்திரத்துக்கான அறநெறி[தொகு]

எந்திர அறநெறி என்பது செயற்கை ஒழுக்க முகவர்களை, அதாவது, எந்திரன்களை அல்லது செயற்கை அறிவார்ந்த கணினிகளை வடிவமைப்பதில் அக்கறை கொண்ட ஆராய்ச்சித் துறையாகும்.[4][5][6] இந்த முகவர்களின் தன்மையைப் புரிந்துகொள்ள , முகமை, பகுத்தறிவு முகமை, அறநெறி முகமை, செயற்கை முகமை ஆகியவற்றின் செந்தரப் பான்மைகள் பற்றிய சில மெய்யியல் எண்ணக்கருக்களைப் புரிந்துகொள்ள வேண்டும். இவை அவற்றின் வடிவமைப்பு முறையுடன் தொடர்புடையவை.[7]

ஐசக் அசிமோவ் 1950களில் தனது எந்திரன் நடத்தையில் இந்தச் சிக்கலைக் கருத்தில் கொண்டார். அவரது ஆசிரியர் ஜான் டபிள்யூ. காம்ப்பெல் இளவலின் வற்புறுத்தலின் பேரில் , செயற்கை நுண்ணறிவு அமைப்புகளை ஆள, எந்திரனியலின் மூன்று விதிகளை முன்மொழிந்தார். அவரது பணியின் பெரும்பகுதி அவரது மூன்று விதிகளின் எல்லைகளைச் சரிபார்ப்பதற்காக செலவிடப்பட்டது , அவை எங்கு உடைக்கும் அல்லது எங்கு முரண்பாடான அல்லது எதிர்பாராத நடத்தையை உருவாக்கும் என்பதைப் பார்க்கவே செலவிடப்பட்டது. எந்தவொரு நிலையான விதிகளும் சாத்தியமான அனைத்து சூழ்நிலைகளையும் போதுமான அளவு எதிர்பார்க்க முடியாது என்று அவரது பணி கூறுகிறது. மிக அண்மையில் கல்வியாளர்களும் பல அரசுகளும் செயற்கை நுண்ணறிவை பொறுப்பேற்க முடியும் என்ற கருத்துக்கு அறைகூவல் ஏற்பட்டுள்ளன.[8] 2010 ஆம் ஆண்டில் ஐக்கிய இராச்சியத்தால் கூட்டப்பட்ட ஒரு குழு , செநு என்பது அதன் உற்பத்தியாளர்களின் அல்லது அதன் உரிமையாளரின் / ஆளுபவரின் பொறுப்பு என்பதை தெளிவுபடுத்த அசிமோவின் விதிகளைத் திருத்தியது.[9]

2009 இல் சுவிட்சர்லாந்தின் உலொசான்னேவின் எகோல் பாலிடெக்னிக் பெடரலில் உள்ள நுண்ணறிவு அமைப்புகளின் ஆய்வகத்தில் ஒரு செய்முறையின்போது , எந்திரன்கள் ஒருவருக்கொருவர் ஒத்துழைக்க திட்டமிடப்பட்டனர். (ஒரு நன்மை பயக்கும் வளத்தைத் தேடுவதிலும் , நச்சுநிலையைத் தவிர்ப்பதிலும்) இறுதியில் நன்மை பயக்கும் சான்றைப் பதுக்குவதற்கான முயற்சியில் ஒருவருக்கொருவர் பொய்சொல்ல கற்றுக்கொண்டனர்.[10]

சில வல்லுர்களும் கல்வியாளர்களும் படைத்துறை, குறிப்பாக எந்திரன்களுக்கு ஓரளவு தன்னாட்சி செயல்பாடுகள் வழங்கப்படும்போது எந்திரன்களைப் போருக்குப் பயன்படுத்துவது, குறித்து கேள்வி எழுப்பியுள்ளனர்.[11] அமெரிக்க கடற்படை ஒரு அறிக்கைக்கு நிதியளித்துள்ளது. இது படைத்துறை எந்திரன்கள் மிகவும் சிக்கலானதாக மாறும்போது , தன்னாட்சி முடிவுகளை எடுக்கும் திறனின் தாக்கங்கள் குறித்து அதிக கவனம் செலுத்தப்பட வேண்டும் என்பதைக் குறிக்கிறது.[12][13] செயற்கை நுண்ணறிவு முன்னேற்றத்திற்கான கழகத்தின் தலைவர் இந்த சிக்கலைக் கணிக்க ஒரு ஆய்வை ஏற்படுத்தியுள்ளார்.[14] அவை மனித தொடர்புகளைப் பின்பற்றக்கூடிய மொழியைக் கையகப்படுத்தும் கருவி போன்ற நிரல்களை சுட்டிக்காட்டுகின்றன.

சில கணினிகள் மனிதர்களை விட அறிவாளிகளாக இருக்கும் காலம் வரக்கூடும் என்று வெர்னர் விங்கே முன்கணித்தார். அவர் இந்த நிலையை அவர் " ஒருங்குதிறம் " என்று அழைக்கிறார். இது மனிதர்களுக்கு ஓரளவு மிகவும் தீங்கானதாக அமையலாம் என்று அவர் கூறுகிறார்.[15] இது ஒருங்குநிலைவாத மெய்யியலால் விவாதிக்கப்படுகிறது. எந்திர நுண்ணறிவு ஆராய்ச்சி நிறுவனம் " நட்புறு செநு " வை உருவாக்க வேண்டியதன் தேவையைப் பரிந்துரைக்கிறது , அதாவது செநு வுடன் ஏற்கனவே நிகழும் முன்னேற்றங்கள் செநு வை உள்ளார்ந்த நட்பாகவும் மனிதாபிமானமாகவும்றைருக்கும்படி மாற்றுவதற்கான முயற்சியையும் உள்ளடக்கியதாக இருக்க வேண்டும் எனப் பரிந்துரைத்துள்ளது.[16]

ஒரு செநு அறநெறி முடிவுகளை எடுக்கும் திறன் கொண்டதா என்பதைப் பார்க்க செய்முறைகளை உருவாக்குவது குறித்து விவாதங்கள் நடந்து உள்ளன. தூரிங் செய்முறை தவறாக உள்ளது என்றும் , அதில் தேர்ச்சி பெற ஒரு செநு வின் தேவை மிகவும் குறைவாகவே உள்ளது என்றும் ஆலன் வின்பீல்டு முடிவாகக் கூறுகிறார்.[17] முன்மொழியப்பட்ட மாற்று செய்முறை, அறநெறி தூரிங் செய்முறை என்று அழைக்கப்படுகிறது. அவர் செநுவின் முடிவு அறநெறியுள்ளதா அல்லது அறநெறியற்றதா என்பதை பல மதிப்பீட்டாளர்கள் வழி தீர்மானிப்பது தற்போதைய செய்முறையை மேம்படுத்தும் என்றார்.[17]

2009 ஆம் ஆண்டில் , எந்திரன்கள்கள், கணினிகளின் சாத்தியமான தாக்கமும் தன்னிறைவும் பெறலாம் . அதனால் அவை தங்கள் சொந்த முடிவுகளை எடுக்க முடியும் என்ற கற்பனையான சாத்தியத்தின் தாக்கம் குறித்து விவாதிக்க செயற்கை நுண்ணறிவு முன்னேற்றத்திற்கான கழகம் ஏற்பாடு செய்த ஒரு மாநாட்டில் கல்வியாளர்களும் தொழில்நுட்ப வல்லுநர்களும் கலந்து கொண்டனர். கணினிகளும் எந்திரன்கள் எந்த அளவிற்கு தன்னாட்சி பெற முடியும் என்பதற்கான சாத்தியக்கூறுகள், எந்த அளவிற்கு அச்சுறுத்தல் அல்லது இடரை ஏற்படுத்தும் திறன்களை பயன்படுத்தலாம் என்பது குறித்து அவர்கள் விவாதித்தனர். சில எந்திரன்கள் தாங்களாகவே மின் வாயில்களைக் கண்டறிவது, ஆயுதங்களுடன் தாக்குவதற்கான இலக்குகளைத் தானாகத் தேர்ந்தெடுக்க முடியும் என்பது உள்ளிட்ட பல்வேறு வகையான அரைத் தன்னாட்சி முறைகளைப் பெற்றுள்ளன என்று அவர்கள் குறிப்பிட்டனர். சில கணினி தீநிரல்கள் நீக்கப்படுவதைத் தவிர்க்கலாம் என்றும் அவை " காக்ரோச் நுண்ணறிவை " அடைந்துள்ளன என்றும் அவர்கள் குறிப்பிட்டனர். அறிவியல் புனைகதைகளில் சித்தரிக்கப்பட்டுள்ளபடி தன்னுணர்வு சாத்தியமில்லை என்று அவர்கள் குறிப்பிட்டனர் , ஆனால் பிற சாத்தியமான தீங்குகளும் இடர்களும் இருந்தன.[18]

இருப்பினும் , அறநெறித் திறனுடனருள்ள எந்திரன்களை நடப்புக்குக் கொண்டு வரக்கூடிய ஒரு சிறப்பு தொழில்நுட்பச் சாத்தியம் உள்ளது. எந்திரன்கள் அறநெறி மதிப்புகளைப் பெறுவது குறித்த ஒரு கட்டுரையில் , நாயெப் அல் - ரோதான் நரம்பியல் சில்லுகளின் வழக்கைக் குறிப்பிடுகிறார். இது மனிதர்களைப் போலவே தகவல்களை நேரியல் அல்லாத முறையிலும் , மில்லியன் கணக்கானவை ஒன்றோடொன்று இணைக்கப்பட்ட செயற்கை நரம்பன்களுடன் செயல்படுவதை நோக்கமாகக் கொண்டுள்ளது.[19] நரம்பியல் தொழில்நுட்பம் உட்பொதித்த எந்திரன்கள் தனித்துவமான மனிதனைப் போன்ற வழியில் அறிவைக் கற்றுக் கொள்ளவும் மேம்படுத்தவும் முடியும். தவிர்க்க முடியாமல் இது போன்ற எந்திரன்கள் உலகத்தைப் பற்றி எந்தச் சூழலில் கற்றுக்கொள்வார்கள் , யாருடைய ஒழுக்கநெறியைப் பெறுவார்கள் அல்லது அவை மனித ' பலவீனங்களை ' வளர்த்துக் கொள்கின்றார்களா என்ற கேள்வியை எழுப்புகிறது.

ஒழுக்க எந்திரன்கள்: எந்திரன்களுக்கு நல்லது, கெட்டது உணர கற்பித்தல் எனும் வெண்டெல் வால்லாக், கொலின் ஆலன் எழுதிய நூலில் , எந்திரன்களுக்குச் சரியானவற்றையும் தவறானவற்றையும் கற்பிக்கும் முயற்சிகள் , நவீன அறநெறிக் கோட்பாட்டின் இடைவெளிகளை நிரப்ப மனிதர்களை ஊக்குவிப்பதாலும் , செய்முறை ஆய்வுக்கு ஒரு தளத்தை வழங்குவதாலும் மனித அறநெறியைப் பற்றிய புரிதலை மேம்படுத்தும் என்று முடிவு செய்தனர். எடுத்துக்காட்டாக , எந்த குறிப்பிட்ட கற்றல் நெறிநிரல்களை எந்திரங்களில் பயன்படுத்த வேண்டும் என்ற விவாதத்துக்குரிய சிக்கலுக்கான அறநெறியை இது அறிமுகப்படுத்தியுள்ளது. நிக் போசுட்டிரோமும், எலியேசர் யுட்கோவ்சுகியும் முடிவெடுப்புத் தரு முறைகளுக்காக (ஐடி3ஐ போன்ற நரம்பியல் வலைபின்னல்கள், மரபணு நெறிநிரல்கள்) வாதிடுகின்றனர் , ஏனெனில் முடிவெடுப்புத் தரு வெளிப்படைத்தன்மை, முன்கணிப்பு போன்ற நவீன சமூக விதிமுறைகளுக்குக் கீழ்ப்படிகிறது (எ. கா. தீர்ப்பைப் பாருங்கள் நிரலி), அதே நேரத்தில் கிறிசு சாந்தோசு - லாங் எந்த அகவையினரின் விதிமுறைகளும் மாற இசைவுதர வேண்டும் என்ற அடிப்படையில் எதிர் திசையில் வாதிட்டார். மேலும் இந்தக் குறிப்பிட்ட விதிமுறைகளை முழுமையாக நிறைவு செய்ய முடியாத இயற்கையான தோல்வி, மனிதர்கள் குற்றவியல் இணையக் களவாணிகளால் தாக்கப்படுவதைக் குறைப்பதில் சாத்தியமாகிறது.[20][21]

ஆக்சுபோர்டு பல்கலைக்கழகத்தின் செநு ஆளுகை மையத்தின் 2019 அறிக்கையின்படி , 82% அமெரிக்கர்கள் எந்திரன்கள், செநுவைக் கவனமாக கையாள வேண்டும் என்று நம்புகிறார்கள். கண்காணிப்பு, போலி உள்ளடக்கத்தை இணையத்தில் பரப்புவதில் செநு எவ்வாறு பயன்படுத்தப்படுகிறது என்பதிலிருந்து மேற்கோள் காட்டப்பட்ட கவலைகள் (அவை செநு உதவியுடன் உருவாக்கப்பட்ட காணொலிகள் பேச்சொலிகள் உள்ளடக்கும்போது ஆழமான போலிகளாக மாறுகின்றன), தரவுத் தனியுரிமை மீறல் சார்புநிலை, தன்னாட்சி ஊர்திகள், உளவு விமானங்கள் பணியமர்த்துதல், மனித கட்டுப்படுத்தல் சார்ந்த சார்புநிலை போன்றன தேவையற்றனவாகும்.[22]

செயற்கை நுண்ணறிவின் அறநெறிக் கோட்பாடுகள்[தொகு]

செநு வுக்கான 84 அறநெறி வழிகாட்டுதல்களை மதிப்பாய்வு செய்வதில் 11 கொள்கைகள் காணப்பட்டன. அவை, வெளிப்படைத்தன்மை, நீதி, நேர்மை, பொறுப்பு, தனியுரிமை, நன்மை, தற்சார்பு, தன்னாட்சி, நம்பிக்கை, நிலைத்தன்மை, கண்ணியம், ஒற்றுமை என்பனவாகும் .[23][23]

உலூசியானோ புளோரிடியும் ஜோழ்சு கவுல்சும் உயிர் அறநெறிக்கான நான்கு கொள்கைகளால் அமைக்கப்பட்ட செநு கொள்கை அறநெறிக் கட்டமைப்பை உருவாக்கினர். அவை நன்மை, தீமை, தன்னாட்சி, நீதி என்பனவாகும். மேலும் ஒரு செநு செயல்படுத்தும் கூடுதல் கொள்கையாக விளக்கமுடியாத தன்மை அமைகிறது.[24]

வெளிப்படைத்தன்மை, பொறுப்புக்கூறல், திறந்த வாயில்[தொகு]

பில் கிப்பார்டு வாதிடுகிறார் , ஏனெனில் செயற்கை நுண்ணறிவு மனிதகுலத்தில் ஆழமான தாக்கத்தை ஏற்படுத்தும். செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தை உருவாக்குபவர்கள் எதிர்கால மனிதகுலத்தின் பேராளர்கள். எனவே அவர்களின் முயற்சிகளில் வெளிப்படையாக இருக்க வேண்டிய அறநெறிக் கடமை உள்ளது.[25] பென் கோர்ட்செல்லும் டேவிடு கார்ட்டும் ஓப்பன்காகு எனும் செயற்கை நுண்ணறிவு மேம்பாட்டை திறந்த வாயில் கட்டமைப்பாக உருவாக்கினர்.[26] திறந்த செநு என்பது வணிக ஈட்டுதல் நோக்கற்ற செநு ஆராய்ச்சி நிறுவனமாகும் , இது எலோன் மசுக்கு சாம் ஆல்ட்மன்ன் பிறரால் மனிதகுலத்திற்கு நன்மை பயக்கும் திறந்த வாயில் செநு உருவாக்கப்பட்டது.[27] இன்னும் பல திறந்த வாயில் செநு முன்னேற்றங்கள் உள்ளன.

குறிமுறை திறந்த வாயிலாக மாற்றுவது அதை புரிந்துகொள்ளக்கூடியதாக மாற்றாது , இது பல வரையறைகளால் AI குறிமுறைகளால் ஆகியதால் வெளிப்படையானது அல்ல. IEEE செந்தரக் கழகம் தன்னாட்சி அமைப்புகளின் வெளிப்படைத்தன்மை குறித்த தொழில்நுட்பச் செந்தரத்தை வெளியிட்டுள்ளது. IEEE 7001 - 2021.[28] செந்தரம் பல்வேறு பங்குதாரர்களுக்கான வெளிப்படைத்தன்மையின் பல அளவுகோல்களை ஐஇஇஇ முயற்சிவழி அடையாளம் காட்டுகிறது. மேலும் , சமகால செயற்கை நுண்ணறிவின் முழுத்திறனையும் சில நிறுவனங்களுக்கு வெளியிடுவது ஒரு பொதுவான கெட்ட செயலாக மாறலாம் , அதாவது நன்மையை விட அதிக அழிவையே அது ஏற்படுத்தும் என்ற கவலை உள்ளது. எடுத்துக்காட்டாக , மைக்ரோசாப்ட் முகம் அதன் ஏற்பு மென்பொருளை உலகளாவிய அணுகலுக்கு இசைவு தருவது குறித்து கவலை தெரிவித்துள்ளது. மைக்ரோசாப்ட் இந்த தலைப்பில் ஒரு இயல்பிகந்த வலைப்பதிவை வெளியிட்டது. அது சரியானதைச் செய்ய அரசின் ஒழுங்குமுறையை கேட்கிறது.[29]

நிறுவனங்கள் மட்டுமல்லாமல் , பல ஆராய்ச்சியாளர்கள், குடிமக்கள், வழக்கறிஞர்கள் வெளிப்படைத்தன்மையை உறுதி செய்வதற்கான ஒரு வழிமுறையாகவும் , அதன் வழி மனித பொறுப்புக்கூறல் மூலமாகவும் அரசின் ஒழுங்குமுறையைப் பேணப் பரிந்துரைக்கின்றனர். இந்தச் செயல்தந்திரம் புதுமைக்கான வேகத்தை குறைக்கும் என்று சிலர் கவலைப்படுவதால் இது விவாதத்துக்குரியதாக நிறுவப்பட்டுள்ளது. ஒழுங்குமுறை நீண்ட காலத்திற்கு புதுமைகளை ஆதரிக்கக்கூடிய முறையான நிலைப்புக்கு வழிவகுக்கிறது என்று மற்றவர்கள் வாதிடுகின்றனர்.[30] OECD, UN, EU, இன்னும் பல நாடுகள் தற்போது செநுவை ஒழுங்குபடுத்துவதற்கும் பொருத்தமான சட்ட கட்டமைப்புகளைக் கண்டுபிடிப்பதற்குமான உத்திகளில் பணியாற்றி வருகின்றன.[31][32][33]

2019 ஜூன் 26 அன்று செயற்கை நுண்ணறிவுக்கான ஐரோப்பிய ஆணையத்தின் உயர் மட்ட வல்லுனர் குழு (AI HLEG) அதன் " நம்பகமான செயற்கை நுண்ணறிவு கொள்கையையும் முதலீட்டு பரிந்துரைகளையும் " வெளியிட்டது.[34] " நம்பகமான செநுவு க்கான அறநெறி வழிகாட்டுதல்கள் " 2019, ஏப்பிரல் வெளியீட்டிற்குப் பிறகு AI HLEG இன் இரண்டாவது வழங்கல் இதுவாகும். ஜூன் AI HLEG பரிந்துரைகள் மனிதர்களும் சமூகமும் - ஆராய்ச்சியும் , கல்வித்துறையும் தனியார் துறையும் பொதுத்துறையும். ஐரோப்பிய ஆணையம் ஆகிய நான்கு முதன்மைக் கருப்பொருள்களை உள்ளடக்கியது. , " எச். எல். இ. ஜி. யின் பரிந்துரைகள் பொருளாதார வளர்ச்சியை ஊக்குவித்தல், முன்னேற்றம், புத்தாக்கம், அத்துடன் தொடர வாய்ப்புள்ள இடர்கள் ஆகிய செயற்கை நுண்ணறிவு தொழில்நுட்பங்களுக்கான வாய்ப்புகளின் பரிந்துரைகளைச் சுட்டுகின்றன. மேலும், பன்னாட்டு அளவில் செயற்கை நுண்ணறிவை நிர்வகிக்கும் கொள்கைகளை வடிவமைப்பதில் ஐரோப்பிய ஒன்றியம் வழிநடத்துவதை நோக்கமாகக் கொண்டுள்ளது என்று கூறுகிறது.[35] ஒழுங்குமுறைக்கு கூடுதலாக தீங்கு விளைவிப்பதைத் தடுக்க , செநுவைப் பயன்படுத்தும் நிறுவனங்கள் நம்பகமான செநுவின் கொள்கைகளுக்கு ஏற்ப நம்பகமான செயற்கை நுண்ணறிவை உருவாக்கி பயன்படுத்துவதில் முதன்மைப் பங்கு வகிக்க வேண்டும். மேலும் இட்ர்களைத் தணிப்பதற்கான பொறுப்புக்கூற வேண்டும்.[36] 2021 ஏப்ரல் 21 அன்று ஐரோப்பிய ஆணையம் செயற்கை நுண்ணறிவு சட்டத்தை முன்மொழிந்தது.

அறநெறி அறைகூவல்கள்[தொகு]

செநு அமைப்புகளில் உள்ள சார்புநிலை[தொகு]

அப்போதைய அமெரிக்க செனட்டர் கமலா ஹாரிஸ் 2020 இல் செயற்கை நுண்ணறிவில் இனப் பாகுபாடு பற்றி பேசுகிறார்

முகம், குரல் உணர்தல் அமைப்புகளில் செநு பேரளவில் உள்ளார்ந்ததாக மாறிவிட்டது. இந்த அமைப்புகள் சில உண்மையான வணிக பயன்பாடுகளைக் கொண்டுள்ளதோடு, அவை மக்களை நேரடியாக பாதிக்கின்றன. இந்த அமைப்புகள் அதன் மனித படைப்பாளர்களால் அறிமுகப்படுத்தப்பட்ட சார்புநிலைகளாலும் பிழைகளாலும் பாதிக்கப்படுகின்றன. மேலும் இந்த செநு அமைப்புகளைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுகளும் சார்புநிலைகளைக் கொண்டிருக்கலாம்.[37][38][39][40] எடுத்துகாட்டாக , மைக்ரோசாப்ட், ஐபிஎம், பேஸ்++ நிறுவனங்களால் உருவாக்கப்பட்ட முக உணர்தல் நெறிநிரல்கள் அனைத்தும் மக்களின் பாலினத்தைக் கண்டறியும் போது சார்புநிலைகளைக் கொண்டிருந்தன. இந்த செயற்கை நுண்ணறிவு அமைப்புகளால் கருப்புத் தோல் ஆண்களின் பாலினத்தை விட வெள்ளைத் தோல் ஆண்களின் பாலினத்தை மட்டுமே மிகவும் துல்லியமாக கண்டறிய முடிந்தது. மேலும் , 2020 ஆம் ஆண்டு ஆய்வில் அமேசான், ஆப்பிள், கூகிள், ஐபிஎம், மைக்ரோசாப்ட் ஆகியவற்றின் குரல் உணர்தல் அமைப்புகள் வெள்ளை மக்களை விட கறுப்பின மக்களின் குரல்களை படியெடுப்பதில் அதிக பிழை விகிதங்களைக் கொண்டுள்ளன என்பதைக் கண்டறிந்தன.[41] மேலும் , அமேசான் செநு பணியமர்த்தலிலும் ஆட்சேர்ப்பிலும் பயன்பாட்டை முன்னிறுத்தியது. ஏனெனில் நெறிநிரல் பெண் வேட்பாளர்களை விட ஆண் வேட்பாளர்களுக்குச் சாதகமாக இருந்தது. ஏனென்றால் , அமேசானின் அமைப்பு 10 ஆண்டு காலப்பகுதியில் திரட்டப்ப்பட்ட தரவுகளை வைத்து பயிற்சி பெற்றது , அவை பெரும்பாலும் ஆண் தரவாளர்களிடமிருந்து வந்தவையாகும்..

சார்புநிலை பல வழிகளில் நெறிநிரல்களில் ஊடுருவலாம். செநு அமைப்புகளின் சார்புநிலை எவ்வாறு அறிமுகமாகிறது என்பதற்கான மிக சரியான பார்வை என்னவென்றால் , இது அமைப்பைப் பயிற்றுவிக்கப் பயன்படுத்தும் வரலாற்றுத் தரவுகளுக்குள் உட்பொதிந்துள்ளது. எடுத்துகாட்டாக , அமேசானின் செநு வழி இயங்கும் ஆட்சேர்ப்புக் கருவி, பல ஆண்டுகளாக திரட்டப்பட்ட அதன் சொந்த ஆட்சேர்ப்பு தரவுகளுடன் பயிற்சி பெற்றது , அந்த நேரத்தில் வெற்றிகரமாக வேலைபெற்ற தரவாளர்கள் பெரும்பாலும் வெள்ளை ஆண்கள் ஆகும். இதன் விளைவாக, நெறிநிரல்கள் வரலாற்றுத் தரவுகளிலிருந்து (சார்புநிலையுடைய) வடிவத்தைக் கற்றுக்கொண்டன , மேலும் இந்த வகையான தரவாளர்கள் வேலை பெறுவதில் வெற்றி பெற வாய்ப்புள்ளது என்று நிகழ்கால / எதிர்காலத்திற்கான கணிப்புகளை உருவாக்கினர். எனவே செயற்கை நுண்ணறிவு முறையால் எடுக்கப்பட்ட ஆட்சேர்ப்பு முடிவுகள் பெண், சிறுபான்மை மக்களுகளுக்கு எதிரான பக்கச்சார்பானவை யாகும். பிரீட்மன், நிசென்பாம் ஆகியோர் கணினி அமைப்புகளில் மூன்று வகையான சார்புநிலைகளை அடையாளம் காண்கின்றனர். அவை, தற்போதுள்ள சார்புநிலை, தொழில்நுட்பச் சார்புநிலை, உருவாகும் சார்புநிலை ஆகியன ஆகும்.[42] இயற்கையான மொழிச் செயலாக்கத்தில் சிக்கல்கள் உரை பனுவலில் இருந்து எழலாம். வெவ்வேறு சொற்களுக்கு இடையிலான உறவுகளைப் பற்றி அறிய நெரிநிரல் பயன்படுத்தும் மூலச் சொற்பொருளில் இருந்து எழலாம்.[43]

ஐபிஎம், கூகிள் போன்ற பெரிய நிறுவனங்கள் இந்த சார்புநிலைகளை ஆராய்ச்சி செய்து தீர்க்க முயற்சிகளை மேற்கொண்டுள்ளன.[44][45][46] செநு அமைப்புகளைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுகளுக்கான ஆவணங்களை உருவாக்குவதே சார்புநிலையை தீர்ப்பதற்கான ஒரு தீர்வாகும்.[47] செயல்முறை சுரங்கம் என்பது நிறுவனங்கள் முன்மொழியப்பட்ட செநு விதிமுறைகளுக்கு இணங்குவதை அடைய ஒரு முதன்மையான கருவியாக இருக்கலாம். பிழைகளை அடையாளம் காண்பதால் கண்காணிப்பு செயல்முறைகள், முறையற்ற செயலாக்கம், பிற செயல்பாடுகளுக்குக் காரணமான மூலமுதல் காரணங்களை அடையாளம் காணுதல் இயலும்.[48]

இயந்திர கற்றலில் சார்புநிலைச் சிக்கல் மிகவும் குறிப்பிடத்தக்கதாக மாறக்கூடும் , ஏனெனில் தொழில்நுட்பம், மருத்துவம், சட்டம் போன்ற முதன்மைப் புலங்களுக்கு பரவுகிறது. மேலும் ஆழமான தொழில்நுட்ப புரிதல் இல்லாத பேரளவு மக்கள் இதைப் பயன்படுத்துவதில் ஈடுபட்டுள்ளனர். பல தொழில்துறைகளில் நெறிநிரல் சார்புநிலை ஏற்கனவே பரவலாக உள்ளது என்றும் , அதை அடையாளம் காணவோ சரிசெய்யவோ கிட்டத்தட்ட யாரும் முயற்சி செய்யவில்லை என்றும் சில வல்லுனர்கள் எச்சரிக்கின்றனர்.[49] குடிமைச் சமூகங்களின் சில திறந்த வாயில் கருவிகள் உள்ளன. அவை பக்கச்சார்பான செநுவுக்கு கூர்ந்த விழிப்புணர்வை ஏற்படுத்த விரும்புகின்றன.[50]

எந்திரன் உரிமைகள்[தொகு]

மனித உரிமைகள் அல்லது விலங்குகளின் உரிமைகளைப் போலவே மக்கள் தங்கள் எந்திரன்களுக்கும் அறநெறிக் கடமைகளைக் கொண்டிருக்க வேண்டும் என்ற கருத்து எந்திரன் உரிமைகள் ஆகும்.[51] எந்திரனின் உரிமைகள் (அதன் சொந்த பணியைச் செய்வதற்கான உரிமை போன்றவை) மனிதகுலத்திற்கு சேவை செய்வதற்கான எந்திரன் கடமையுடன் இணைக்கப்படலாம் என்று பரிந்துரைக்கப்படுகிறது. சமூகத்தின் முன் மனித கடமைகளுடன் மனித உரிமைகளை இணைப்பதற்கு ஒத்ததாகும்.[52] வாழ்வதற்கான உரிமை , சுதந்திரம் , சிந்தனை மற்றும் கருத்துச் சுதந்திரம் , சட்டத்தின் முன் சமத்துவம் ஆகியவை இதில் அடங்கும்.[53] எதிர்காலத்திற்கான நிறுவனம் இங்கிலாந்து வணிக, தொழில்துறை துறையால் இந்தச் சிக்கல் ஆய்வுக்கு உட்படுத்தப்பட்டுள்ளது.

இந்த விஷயத்தில் குறிப்பிட்ட, விரிவான சட்டங்கள் எவ்வளவு விரைவில் தேவைப்படும் என்பதில் வல்லுனர்கள் உடன்படவில்லை. 2020 ஆம் ஆண்டுக்குள் போதுமான மனித எந்திரன்கள் தோன்றக்கூடும் என்று கிளென் மெக்கீ தெரிவித்தார் , அதே நேரத்தில் ரே குர்சுவெயில் இதை 2029 ஆம் ஆண்டுக்கு மாற்றினார்.[54] 2007இல் கூடிய மற்றொரு அறிவியலாளர்கள் குழு , எந்தவொரு போதுமான மேம்பட்ட அமைப்பும் இருப்பதற்கு முன்பு குறைந்தது 50 ஆண்டுகள் கடந்து செல்ல வேண்டும் என்று கருதியது.[55]

2003 லோப்னர் பரிசு போட்டிக்கான விதிக ளை எந்திரன்கள் தங்கள் சொந்த உரிமைகளைக் கொண்டிருப்பதற்கான சாத்தியக்கூறுகளைக் கொண்டிருந்தன.

61. எந்தவொரு ஆண்டிலும் சர்ரே பல்கலைக்கழகம் அல்லது கேம்பிரிட்ஜ் மையம் உள்ளிட்ட பொது மக்கள் அணுகக்கூடிய திறந்த வாயில் நுழைவு வெள்ளிப் பதக்கம் அல்லது தங்கப் பதக்கத்தை வென்றால் , அந்த நுழைவு உருவாக்கத்திற்கு பொறுப்பான அமைப்புக்கு பதக்கமும் காசும் வழங்கப்படும். அத்தகைய அமைப்பு எதுவும் அடையாளம் காண முடியாவிட்டால் அல்லது இரண்டு அல்லது அதற்கு மேற்பட்ட உரிமை கோருபவர்களிடையே கருத்து வேறுபாடு இருந்தால் , பதக்கமும், காசும் அமெரிக்காவில் அல்லது போட்டியின் இடத்தில் சட்டவியலாக இருக்கும் வரை அறக்கட்டளையில் நடத்தப்படும்.

அக்டோபர் 2017 இல், எந்திரியான சோஃபியாவுக்கு சவுதி அரேபியாவில் குடியுரிமை வழங்கப்பட்டது. இருப்பினும் சிலர் இதை ஒரு அர்த்தமுள்ள சட்ட அங்கீகாரத்தை விட விளம்பர உத்தி என்று கருதினர்.[56] சிலர் இந்த செயலை மனித உரிமைகளையும் சட்டத்தின் ஆட்சியையும் வெளிப்படையாக இழிவுபடுத்துவதாகக் கருதினர்.[57]

உணர்வுவாதத்தின் தத்துவம் அனைத்தும் உணர்வுள்ள உயிரினங்களுக்கும் முதன்மையாக மனிதர்களுக்கும் பெரும்பாலான மனிதரல்லாத விலங்குகளுக்கும் அறநெறிக் கருத்தை வழங்குகிறது. செயற்கை அல்லது அயன்மை நுண்ணறிவு உணர்ச்சிவசப்படுவதற்கான சான்றுகளைக் காட்டினால் , இந்த அறநெறி அவர்களுக்கு இரக்கம் காட்டப்பட வேண்டும் என்றும் மற்றும் உரிமைகள் வழங்கப்பட வேண்டும் என்றும் கருதுகிறது.

உரிமைகள் கோரும் செயற்கை நுண்ணறிவை உருவாக்குவது தவிர்க்கக்கூடியது என்றும் அது செயற்கை நுண்ணறிவு முகவர்களுக்கும் மனித சமூகத்திற்கும் சுமையாக இருக்கும் என்றும் ஜோனா பிரைசன் வாதிட்டார்.

செயற்கை துன்பம்[தொகு]

2020 ஆம் ஆண்டில் பேராசிரியர் சீமோன் எடெல்மன்ன் , செநு நெறிமுறைகளின் வேகமாக வளர்ந்து வரும் துறையில் ஒரு சிறிய பகுதி மட்டுமே செநு கள் துன்பத்தை நுகர்வதற்ற்கான சாத்தியத்தை தீர்ப்பதாக குறிப்பிட்டார். ஒருங்கிணைந்த தகவல் கோட்பாடு போன்ற செயற்கை நுண்ணறிவு அமைப்புகள் விழிப்புணர்வுடன் இருக்கக்கூடிய சாத்தியமான வழிகளை நம்பகமான கோட்பாடுகள் கோடிட்டுக் காட்டிய போதிலும் இதற்கொரு விதிவிலக்கு தாமசு மெட்சிங்கர் என்று எடெல்மன்ன் குறிப்பிடுகிறார் , அவர் 2018 ஆம் ஆண்டில் நனவான செநு களை உருவாக்கும் இடரை ஏற்படுத்தும் கூடுதல் பணிகளுக்கு உலகளாவிய தடைக்கு அழைப்பு விடுத்தார். இந்தத் தடை 2050 வரை நடப்பில் இருக்கும் , மேலும் இடர்களை நன்கு புரிந்துகொள்வதிலும் அவற்றை எவ்வாறு குறைப்பது என்பதிலும் முன்னேற்றத்தைப் பொறுத்து அதை நீட்டிக்கலாம் அல்லது முன்கூட்டியே நீக்கம் செய்யலாம். மெட்சிங்கர் 2021 இல் இந்த வாதத்தை மீண்டும் வலியுறுத்தினார் , " செயற்கை துன்பத்தின் வெடிப்பை உருவாக்கும் இடரை எடுத்துக்காட்டுகிறது , ஏனெனில் ஒரு செநு மனிதர்களால் புரிந்து கொள்ள முடியாத முனைப்பான வழிகளில் பாதிக்கப்படலாம். மாற்று படியாக்கச் செயல்முறைகள் அதிக அளவு செயற்கை நனவான நிகழ்வுகளை உருவாக்கக்கூடும். பல ஆய்வகங்கள் நனவான செநு களை உருவாக்க முயற்சிப்பதாக வெளிப்படையாகக் கூறியுள்ளன. செநுI களுக்கு நெருக்கமான அணுகல் உள்ளவர்களிடமிருந்து தன் விழிப்புணர்வுடன் வெளிப்படையாக இருக்க விரும்பாதவர்கள் ஏற்கனவே தற்செயலாக வெளிப்பட்டிருக்கலாம் என்று அறிக்கைகள் வந்துள்ளன. திறந்த செநு நிறுவனர் இலியா சுட்சுகெவர் 2022 பிப்ரவரியில் இன்றைய பெரிய நரம்பியல் வலைப்பின்னல்களை " சற்று நனவாக " இருக்கலாம் என்று எழுதியபோது இதில் அடங்கும். 2022 நவம்பரில் டேவிடு சால்மர்சு , ஜிபிடி - 3 போன்ற தற்போதைய பெரிய மொழி படிமங்கள் நனவை நுகர்ந்திருக்க வாய்ப்பில்லை என்றும் , ஆனால் எதிர்காலத்தில் பெரிய மொழி படிமங்கள் நனவாகக்கூடும் என்பதற்கான முனைவான வாய்ப்பு இருப்பதாக அவர் கருதினார் என்றும் வாதிட்டார்.[58][59]

மனித கண்ணியத்திற்கு அச்சுறுத்தல்[தொகு]

1976 ஆம் ஆண்டில் ஜோசப் வெய்சன்பாம்[60] , செநு தொழில்நுட்பத்தை தன்மதிப்பு, கவனிப்பு தேவைப்படும் பதவிகளில் உள்ளவர்களை அச்சுறுத்தபயன்படுத்தக்கூடாது என்று வாதிட்டார்

  • ஒரு வாடிக்கையாளர் பணிப் பேராளர் ( செநு தகவல் தொழில்நுட்பம் ஏற்கனவே தொலைபேசி அடிப்படையிலான ஊடாடும் குரல் பதில் அமைப்புகளுக்கு இன்று பயன்படுத்தப்படுகிறது)
  • வயதானவர்களுக்கான ஒரு செவிலியர் (பமீலா மெக்கார்தக் தனது ஐந்தாவது தலைமுறை நூலில் இதை பரிந்துரைத்துள்ளார்)
  • ஒரு படைவீரன்
  • ஒரு நீதிபதி
  • ஒரு காவல் அதிகாரி
  • ஒரு மருத்துவர் ( இது கென்னத் கோல்பியால் 70 களில் முன்மொழியப்பட்டது)

இந்த நிலைகளில் உள்ளவர்களிடமிருந்து உண்மையான கழிவிரக்க உணர்வுகள் நமக்குத் தேவை என்று வெய்சென்பாம் விளக்குகிறார். எந்திரன்களை மாற்றியமைக்க , செயற்கை நுண்ணறிவு அமைப்பு கழிவிரக்கத்தை உருவகப்படுத்த முடியாது என்பதால் நாம் காண்போம். செயற்கை நுண்ணறிவு இந்த வழியில் பயன்படுத்தப்பட்டால் மனிதக் கண்ணியத்திற்கு அச்சுறுத்தலாக இருக்கும். இந்த நிலைகளில் எந்திரன்களின் சாத்தியத்தை நாம் பயன்படுத்த இசைவது, நம்மைக் கணினிகளாக நாம் நினைப்பதன் வழி உருவாகும் மனித நனவின் " மனச்சோர்வை " நாம் பட்டரிந்திருக்கிறோம் என்பதைக் குறிக்கிறது என்று வெய்சன்பாம் வாதிடுகிறார்.

பெண்களுக்காகவும் சிறுபான்மையினருக்காகவும் பேசுவதை பமீலா மெக்கார்தக் எதிர்ப்பார்க்கிறார் " தனிப்பட்ட நிகழ்ச்சி நிரல் இல்லாத தானியங்கி நீதிபதிகளையும் காவல்துறையையும் நாங்கள் விரும்புவதற்கான கட்டுத்தளைகள் உள்ளன என்பதை சுட்டிக்காட்டும் ஒரு பக்கச்சார்பற்ற கணினியுடன் எனது வாய்ப்புகளை நான் பயன்படுத்த விரும்புகிறேன். இருப்பினும் கப்லானும் எய்ன்லெய்னும் செநு அமைப்புகள் தங்களுக்கு பயிற்சி அளிக்கப் பயன்படுத்தப்படும் தரவுகளைப் போலவே நுண்ணறிவோடு உள்ளன என்று வலியுறுத்துகின்றனர். ஏனெனில் அவை அவற்றின் சாரநிலையில் வியப்பூட்டும் கணித வளைவு பொருத்தும் எந்திரங்களே தவிர வேறொன்றுமில்லை கடந்த காலத் நீதிமன்றத் தீர்ப்புகள் சில குழுக்களுக்கு பக்கச்சார்பைக் காட்டினால் நீதிமன்ற தீர்ப்பை ஆதரிக்க செநுவைப் பயன்படுத்துவது மிகவும் சிக்கலானதாக மாறுகிறது. ஏனெனில் அந்தச் சார்புநிலைகள் முறைப்படுத்தப்பட்டு உட்பொதிக்கப்படுகின்றன , இதனால் அவற்றைக் கண்டறிந்து போராடுவது இன்னும் கடினமாகிறது.[61]

செயற்கை நுண்ணறிவு ஆராய்ச்சியாளர்கள் (மற்றும் சில மெய்யியலாளர்கள்) மனித மனதை ஒரு கணினி நிரலைத் தவிர வேறொன்றுமில்லை என்று பார்க்க ஆயத்தமாக இருந்தனர் (இப்போது கணக்கீட்டுவாதம் என்று அழைக்கப்படும் ஒரு நிலை). வெய்சன்பாம் இந்தப் புள்ளிகள் சார்ந்த செயற்கை நுண்ணறிவு ஆராய்ச்சி மனித வாழ்க்கையை மதிப்பிடுகிறது என்று கூறுகிறார்.[60]

செநு நிறுவனர் ஜான் மெக்கார்த்தி வெய்சென்பாம் விமர்சனத்தின் ஒழுக்கப்பகுதி தொனியை எதிர்க்கிறார். " ஒழுக்கநெறி என்பது முனைப்பானதாகவும் தெளிவற்றதாகவும் இருக்கும்போது அது தனிவல்லாண்மை அத்துமீறல் பயன்பாட்டை வரவழைக்கிறது " என்று அவர் எழுதுகிறார். பில் கிப்பார்டு , " மனித கண்ணியம் என்பது இருப்பின் தன்மை குறித்த நமது அறியாமையை அகற்ற தேவைப்படும் முயற்சியைக் குறிக்கிறது என்று எழுதுகிறார்.

தானோட்டிச் சீருந்துகளுக்கான இழப்பீடு[தொகு]

தன்னாட்சி ஊர்திகளின் பரவலான பயன்பாடு மிகுந்து வருவதால் , முழுத் தன்னாட்சி ஊர்திகள் எழுப்பப்படும் புதிய அரைகூவல்கள் தீர்க்கப்பட வேண்டும்.[62][63] இந்தச் சீருந்துகள் விபத்துக்களில் சிக்கினால் , பொறுப்பேற்கும் தரப்பினரின் சட்டப் பொறுப்பு குறித்து அண்மையில் விவாதம் நடந்துள்ளது.[64][65] ஓட்டுநர் இல்லாத கார் ஒரு நடைபாதையினர் மேல் மோதிய ஒரு அறிக்கையில் , ஓட்டுநர் ஊர்திகுள் இருந்தார் , ஆனால் கட்டுப்பாடுகள் முழுமையாக கணினிகளின் கைகளில் இருந்தன. இதனால் விபத்துக்கு யார் காரணம் என்ற குழப்பம் ஏற்பட்டது.[66]

2018 மார்ச் 18 அன்று நடந்த மற்றொரு நிகழ்வில் , அரிசோனாவில் தன்னோட்டுநர் உபெரால் எலைன் கெர்சுபெர்கு தாக்கப்பட்டுக் கொல்லப்பட்டார். இந்த வழக்கில் தானியங்கி ஊர்தி சாலையைத் தன்னிச்சையாக வழிநடத்துவதற்காக கார்களையும் சில தடைகளையும் கண்டறியும் திறனைக் கொண்டிருந்தது , ஆனால் சாலையின் நடுவில் ஒரு நடப்பவர் இருப்பதை எதிர்பார்க்க முடியவில்லை. இது அவரது இறப்பிற்கு கார் நிறுவனத்தையா அல்லது ஓட்டுநரையா அல்லது பாதசாரியையா அல்லது அரசாங்கத்தையா யாரைப் பொறுப்பேற்க வைப்பது என்ற கேள்வியை எழுப்பியது.[67]

தற்போது தானோட்டிச் சீருந்துகள் அரைத்தன்னாட்சி ஊர்திகளாக கருதப்படுகின்றன , ஓட்டுநர் கவனம் செலுத்த வேண்டும்; தேவைப்பட்டால் கட்டுப்பாட்டை எடுக்க தயாராக இருக்க வேண்டும். தோல்வியுற்ற, எனவே தன்னாட்சி கூறுகளைப் பெரிதும் நம்பியிருக்கும் ஓட்டுநரை ஒழுங்குபடுத்துவது அரசுகளின் பொறுப்பாகும். அத்துடன் இவை வெறும் தொழில்நுட்பங்கள் என்று அவர்களுக்குக் கற்பித்தல் வசதியானது என்றாலும் அது ஒரு முழுமையான மாற்று அன்று.[68] தன்னாட்சி ஊர்திகள் பரவலாகப் பயன்படுத்தப்படுவதற்கு முன்பு , இந்த சிக்கல்களை புதிய கொள்கைகள் வழி தீர்க்க வேண்டும்.[69][70][71]

செயற்கை நுண்ணறிவின் ஆயுதமயமாக்கல்போக்கு[தொகு]

சில வல்லுனர்களும் கல்வியாளர்களும் குறிப்பாக, எந்திரன்களுக்கு ஓரளவு தன்னாட்சி வழங்கப்படும்போது,[11][72] போருக்கு எந்திரன்களைப் பயன்படுத்துவது குறித்த கேள்வியை எழுப்பியுள்ளனர். இது பற்றி, 2019 அக்டோபர் 31 அன்று, ஐக்கிய அமெரிக்கப் பாதுகாப்புத் துறையின் பாதுகாப்பு, கண்டுபிடிப்பு வாரியம் ஒரு அறிக்கையின் வரைவை வெளியிட்டது , இது பாதுகாப்புத் துறையால் செயற்கை நுண்ணறிவைப் பயன்படுத்துவதற்கான கொள்கைகளைப் பரிந்துரைத்தது , இது ஒரு மனித இயக்குபவர் எப்போதும் ' கருப்பு பெட்டியைப் ' பார்க்க முடியும் என்பதை உறுதி செய்யும். எனினும் , இந்த அறிக்கை எவ்வாறு செயல்படுத்தப்படும் என்பது ஒரு பெரிய கவலையாக உள்ளது. அமெரிக்க கடற்படை ஒரு அறிக்கைக்கு நிதியளித்துள்ளது , இது இராணுவ எந்திரன்கள் மிகவும் சிக்கலானதாக மாறும்போது , தன்னாட்சி முடிவுகளை எடுக்கும் திறனின் தாக்கங்கள் குறித்து அதிக கவனம் செலுத்தப்பட வேண்டும் என்பதைக் குறிக்கிறது.[13][73] தன்னாட்சி பெற்ற எந்திரன்கள் மிகவும் திறம்பட முடிவுகளை எடுக்க முடியும் என்பதால் அவை மனிதாபிமானத்துடன் செயல்படக்கூடும் என்று சில ஆராய்ச்சியாளர்கள் கூறுகின்றனர்.[74]

இந்த கடந்த பத்தாண்டிற்குள் ஒதுக்கப்பட்ட அறநெறி பொறுப்புகளைப் பயன்படுத்தி கற்றுக்கொள்ளும் திறனுடன் தன்னாட்சி அதிகாரத்தில் முன்னைப்பான ஆராய்ச்சி நடந்துள்ளது. " எதிர்கால படைத்டுறை எந்திரன்களை வடிவமைக்கும் போது , எந்திரன்களுக்கு பொறுப்பை ஒதுக்குவதற்கான தேவையற்ற போக்குகளைக் கட்டுப்படுத்த இந்த முடிவுகள் பயன்படுத்தப்படலாம்.[75] இதன் விளைவாக எந்திரன்கள் யாரைக் கொல்ல வேண்டும் என்பது குறித்து தங்கள் சொந்த தருக்கவியலான முடிவுகளை எடுக்கும் திறனை வளர்த்துக் கொள்ளும் வாய்ப்பு உள்ளது , அதனால்தான் AI மீற முடியாத ஒரு அறநெறிக் கட்டமைப்பு இருக்க வேண்டும்.[76]

மனிதகுலத்தை ரோபோ கையகப்படுத்துவது பற்றிய யோசனைகளை உள்ளடக்கிய செயற்கை நுண்ணறிவு ஆயுதங்களின் பொறியியல் தொடர்பாக அண்மையில் கூக்குரல் எழுந்துள்ளது. செயற்கை நுண்ணறிவு ஆயுதங்கள் மனிதனால் கட்டுப்படுத்தப்படும் ஆயுதங்களிலிருந்து வேறுபட்ட ஒரு வகையான இடரை முன்வைக்கின்றன. செயற்கை நுண்ணறிவு ஆயுதங்களை உருவாக்குவதற்கான திட்டங்களுக்குப் பல அரசுகள் நிதியளிக்கத் தொடங்கியுள்ளன. முறையே உருசியா, தென் கொரியாவின் ஒத்த அறிவிப்புகளுக்கு இணையாக தன்னாட்சி பறப்பு ஆயுதங்களை உருவாக்கும் திட்டத்தை அமெரிக்க கடற்படை அண்மையில் அறிவித்தது. மனிதனால் இயக்கப்படும் ஆயுதங்களை விட செயற்கை நுண்ணறிவு ஆயுதங்கள் மிகவும் தீகான்வையாக மாறும் சாத்தியம் காரணமாக , சுட்டீவன் ஆக்கிங்கும் மேக்சு தெக்மார்க்கும் செயற்கை நுண்ணறிவுத் ஆயுதங்களைத் தடை செய்வதற்கான " எதிர்கால வாழ்க்கை " கோறல் விண்ணப்பத்தில் கையெழுத்திட்டனர்த இருவரும் வெளியிட்ட செய்தியில் செயற்கை நுண்ணறிவு ஆயுதங்கள் உடனடி கேட்டை ஏற்படுத்துவதாகவும் , எனவே எதிர்காலத்தில் பேரழிவு தரும் விளைவுகளைத் தவிர்க்க நடவடிக்கை தேவை என்றும் கூறுகிறது.[77]

" எந்தவொரு பெரிய படைசார் வல்லமையும் செயற்கை நுண்ணறிவு ஆயுத வளர்ச்சியுடன் முன்னேறினால் - ஒரு உலகளாவிய ஆயுதப் போட்டி கிட்டத்தட்ட தவிர்க்க முடியாதது. இந்த தொழில்நுட்பப் பாதையின் இறுதிப் புள்ளி வெளிப்படையானது - தன்னாட்சி ஆயுதங்கள் நாளைய கலாஷ்னிகோவ் ஆக மாறும் " என்று அந்த விண்ணப்பத்தில் இசுகைப் இணை நிறுவனர் ஜான் தாலினும் எம்ஐடி மொழியியல் பேராசிரியர் நோம் சோம்சுகியும் செயற்கை நுண்ணறிவுக்கு எதிரான கூடுதல் ஆதரவாளர்களாக உள்ளனர்.[78]

இயற்பியலாளரும் வானியலாளருமான ராயல் சர் மார்ட்டின் இரீசு , " ஊமை எந்திரன்கள் முரட்டுத்தனமாக செல்வது அல்லது அதன் சொந்த மனதை உருவாக்கும் ஒரு வலைப்பின்னல் போன்ற பேரழிவு நிகழ்வுகளைக் குறித்து எச்சரித்துள்ளார். கேம்பிரிட்ஜ் இரீசின் இணை ஊழியரான கூ பிரைசும் , செயற்கைநுண்ணறிவு " உயிரியலின் கட்டுப்பாடுகளைத் தவிர்க்கும்போது " மனிதர்கள் உயிர்வாழ முடியாது என்று எச்சரிக்கையை விடுத்துள்ளார். இந்த இரண்டு பேராசிரியர்களும் மனித இருப்புக்கான அச்சுறுத்தலைத் தவிர்க்கும் நம்பிக்கையில் கேம்பிரிட்ஜ் பல்கலைக்கழகத்தில் இருத்தலியல் இடர் குறித்த ஆய்வுக்கான மையத்தை உருவாக்கினர்.[77]

மனிதர்களை விட துடியான செயல்பாட்டு அமைப்புகளை படைத்துறையில் போருக்குப் பயன்படுத்தப்படுவதற்கான சாத்தியக்கூறுகள் குறித்து, திறந்த கொடையுதவித் திட்டம், "இந்தச் சூழல்கள், கட்டுப்பாட்டை இழப்பது தொடர்பான இடர்களைப் போலவே, முதன்மையானவையாகத் தோன்றுகின்றன" என எழுதுகிறது. ஆனால் செநுவின் நீண்டகாலச் சமூக தாக்கத்தை ஆராயும் ஆராய்ச்சி இந்த அக்கறை குறித்து ஒப்பீட்டளவில் குறைந்த நேரத்தையே செலவிட்டுள்ளது. " மிகவும் சுறுசுறுப்பாக இயங்கும் அமைப்புகளான எந்திர நுண்ணறிவு ஆராய்ச்சி நிறுவனத்துக்கும் (MIRI) மனிதநேயத்தின் எதிர்காலம் (FHI) குறித்த நிறுவனத்துக்கும் இந்த வகைச் சூழல்கள் முதன்மையானவையாக அமையவில்லை என்பது தெளிவாகிறது. மேலும், இச்சூழல்கள் குறித்து மிகவும் குறைவான பகுப்பாய்வும் விவாதமுமே இந்நிறுவனங்களில் நடந்துள்ளதாகவும் தெரிகிறது.

மழுங்கலான நெறிநிரல்கள்[தொகு]

நரம்பியல் வலைப்பின்னல்களுடன் எந்திர கற்றல் போன்ற அணுகுமுறைகளில் கணினிகள் முடிவுகளை எடுப்பதில் ஏற்படுத்தும் விளைவுகளை, அவற்றாலோ அவற்றை நிரல் செய்த மனிதர்களாலோ விளக்க முடியாது. இத்தகைய முடிவுகள் நியாயமானவையா, நம்பகமானவையா என்பதை மக்கள் தீர்மானிப்பதும் கடினம் , இது செயற்கை நுண்ணறிவு அமைப்புகளில் கண்டறியப்படாமல் பாகுபாடு காட்ட வழிவகுக்கும் அமைப்புகளின் பயன்பாட்டை மக்கள் ஏற்கமாட்டார்கள். இது வாதிடுவதற்கும் சில அதிகார வரம்புகளில் விளக்கக்கூடிய செயற்கை நுண்ணறிவுக்கான சட்டத் தேவைகளுக்கும் வழிவகுத்துள்ளது.[79] விளக்கக்கூடிய செயற்கை நுண்ணறிவு நரம்பியல் வலைப்பின்னல் நடத்தையை சுருக்கமாகக் கூறுவது. பயனர் நம்பிக்கையை வளர்ப்பதும் விளக்குவதும் ஆகிய இரண்டையும் உள்ளடக்கியது , அதே நேரத்தில் விளக்கத்தன்மை என்பது ஒரு படிமம் அல்லது நுட்பம் என்ன செய்துள்ளது அல்லது செய்ய முடியும் என்பதைப் புரிந்துகொள்வது என வரையறுக்கப்படுகிறது.[80]

செநு வை கவனக்குறைவாகவோ அல்லது வேண்டுமென்றேயோ தவறாகப் பயன்படுத்துதல்[தொகு]

செயற்கை நுண்ணறிவின் விளங்காத தன்மையின் ஒரு சிறப்பு வழக்கு, அது மானுடவியல் பண்புகளைக் கொண்டிருப்பதாகக் கருதப்படுவதும் , இதன் விளைவாக அதன் அறநெறி நிறுவனம் பற்றிய தவறான கருத்துக்களாலும் ஏற்படுகின்றது. இது மனித க் கவணக் குறைவு அல்லது வேண்டுமென்றேயான குற்றவியல் நடவடிக்கை ஒரு செநு அமைப்பின் வழி உருவாக்கப்பட்ட நெறிமுறையற்ற விளைவுகளுக்கு வழிவகுத்ததா என்பதை மக்கள் கவனிக்காமல் போகக்கூடும். ஐரோப்பிய ஒன்றியத்தின் செநு சட்டம் போன்ற சில அண்மைய டிஜிட்டல் ஆளுகை ஒழுங்குமுறைகள் , சாதாரண தயாரிப்பு பொறுப்பின் கீழ் ஒருவர் எதிர்பார்ப்பது போல் செநு அமைப்புகள் குறைந்த அளவு கவனத்துடன் நடத்தப்படுவதை உறுதி செய்வதால் இதை சரிசெய்ய அமைக்கப்பட்டுள்ளன. இதில் செநு தணிக்கைகளும் அடங்கும்.

தன்முனைவுதிறம்[தொகு]

பல ஆராய்ச்சியாளர்கள் ஒரு " நுண்ணறிவு வெடிப்பு " மூலம் ஒரு தன மேம்பாட்டு செநு மிகவும் ஆற்றல் வாய்ந்ததாக மாறக்கூடும் , இதனால் மனிதர்களால் அதன் இலக்குகளை அடைவதைத் தடுக்க முடியாது என்று வாதிட்டனர்.[81] " மேம்பட்ட செயற்கை நுண்ணறிவில் அறநெறிச் சிக்கல்கள் " என்ற தனது ஆய்வறிக்கையிலும் , அதைத் தொடர்ந்து வந்த புத்தகமான மீநுண்ணறிவு: வழிமுறைகளும் அச்சுறுத்தல்களும் செயல்நெறிகளும் என்ற புத்தகத்திலும் , மெய்யியலாளர் நிக் போசுட்டிரோம் , செயற்கை நுண்ணறிவு மனித அழிவைக் கொண்டுவரும் திறனைக் கொண்டுள்ளது என்று வாதிடுகிறார். பொது நுண்ணறிவுத் தற்சார்பு முன்முயற்சியும் அதன் சொந்த திட்டங்களை உருவாக்கும் திறனும் கொண்டதாக இருக்கும் என்றும் , எனவே ஒரு தன்னாட்சி முகவராக மிகவும் பொருத்தமாக அதைக் கருதலாம் என்றும் அவர் கூறுகிறார். செயற்கை நுண்ணறிவுகள் நமது மனித ஊக்க போக்குகளைப் பகிர்ந்து கொள்ள வேண்டியதில்லை என்பதால் , அதன் மூல உந்துதல்களைக் குறிப்பிடுவது மீ நுண்ணறிவின் வடிவமைப்பாளர்களைப் பொறுத்தது. ஒரு செயற்கை மீநுண்ணறிவு கிட்டத்தட்ட எந்தவொரு சாத்தியமான முடிவையும் கொண்டு வர முடியும்என்பதாலும் அதன் இலக்குகளை செயல்படுத்துவதைத் தடுக்கும் எந்தவொரு முயற்சியையும் அதனால் முறியடிக்க முடியும் என்பதாலும் பல கட்டுப்பாடற்ற எதிர்பாராத விளைவுகள் ஏற்படலாம். இது மற்ற அனைத்து முகவர்களையும் கொல்லலாம். அவர்களின் நடத்தையை மாற்றிக்கொள்ளும்படி அவர்களை வற்புறுத்தலாம் அல்லது தலையிடுவதற்கான அவர்களின் முயற்சிகளைத் தடுக்கலாம்.[82]

இருப்பினும் , மனித இனத்தை மூழ்கடித்து , நமது அழிவுக்கு வழிவகுப்பதற்குப் பதிலாக , நோய் வறுமை, சுற்றுச்சூழல் அழிவு போன்ற பல கடினமான பிரச்சினைகளைத் தீர்க்கவும் மீநுண்ணறிவு நமக்கு உதவும் என்றும் , நம்மை மேலும் மேம்படுத்திக் கொள்ள உதவும் என்றும் போசுட்டிரோம் வலியுறுத்தியுள்ளார்.[83]

மனித மதிப்பு அமைப்புகளின் சிக்கலானது செநுவின் உந்துதல்களை மனித நட்பாக மாற்ற்வதே. இது மிகவும் கடினமாகிறது.[81][82] அறநெறிக் கொள்கை ஒன்று நமக்கு ஒரு குறைபாடற்ற நெறிமுறைக் கோட்பாட்டை வழங்காவிட்டால் , ஒரு செநுவின் பயன்பாட்டு செயல்பாடு கொடுக்கப்பட்ட நெறிமுறை கட்டமைப்புடன் ஒத்துப்போகும் பல தீங்கு விளைவிக்கும் சூழ்நிலைகளை உருவாக்க முடியும் , ஆனால் " பொதுப்புலன் உணர்வு " . எலியேசர் யுட்கோவ்சுகியின் கூற்றுப்படி , செயற்கை முறையில் வடிவமைக்கப்பட்ட மனம் அத்தகைய தழுவலைக் கொண்டிருக்கும் என்று கருதுவதற்கு எந்தக் காரணமும் இல்லை.[84] சுட்டூவர்டு ஜே. இரசல், பில் கிப்பார்டு உரோமன், யாம்போல்சுகி சானான், வல்லோர் சுட்டீவன் அம்பிரெல்லோ,[85] உலூசியானோ புளோரிடி[86] போன்ற செநு ஆராய்ச்சியாளர்கள் நன்மை பயக்கும் எந்திரன்களை உருவாக்குவதற்கான வடிவமைப்பு உத்திகளை முன்மொழிந்துள்ளனர்.[87][88]

செநு அறநெறிச் செயல்பாட்டாளர்கள்[தொகு]

செயற்கை நுண்ணறிவு அறநெறிகள், கொள்கைகள் வகுப்பதில் பொது, அரசு, பெருநிறுவன , சமூகம் ஆகியவற்றின் அக்கறை மிக்க பல நிறுவனங்கள் நடப்பில் உள்ளன.

கூகுள், ஐபிஎம், மைக்ரோசாப்ட் ஆகியவை இலாப நோக்கற்ற நிறுவனமான செயற்கை நுண்ணறிவு தொழில்நுட்பங்களில் சிறந்த நடைமுறைகளை உருவாக்குவதற்கும் , பொதுமக்களின் புரிதலை மேம்படுத்துவதற்கும் செயற்கை நுண்ணறிவைப் பற்றிய ஒரு தளமாக செயல்படுவதற்கும் மக்கள், சமூகத்திற்கு பயனளிக்கும் செயற்கை நுண்ணறிவின் கூட்டாண்மையை நிறுவியுள்ளன. இதில் ஆப்பிள் ஜனவரி 2017 இல் இணைந்தது. பெருநிறுவன உறுப்பினர்கள் குழுவிற்கு நிதி, ஆராய்ச்சி வளப் பங்களிப்புகளை வழங்குவார்கள் , அதே நேரத்தில் அறிவியல் சமூகத்துடன் இணைந்து கல்வியாளர்களைக் குழுவில் கொண்டு வருவார்கள்.[89]

தன்னாட்சி, நுண்ணறிவு அமைப்புகளின் அறநெறிகள் குறித்த உலகளாவிய முன்முயற்சியை ஐஇஇஇ ஒன்றாக இணைத்துள்ளது , இது பொது உள்ளீடுகளின் உதவியுடன் வழிகாட்டுதல்களை உருவாக்கி திருத்துகிறது. அதன் அமைப்புக்கு உள்ளேயும் வெளியேயும் உள்ள பல வல்லுனர்களை உறுப்பினர்களாக ஏற்றுக்கொள்கிறது.

மரபாக , சட்டம், காவல் வழி அறநெறிகள் கடைப்பிடிக்கப்படுவதை உறுதி செய்ய சமூகங்களால் அரசாங்கம் பயன்படுத்தப்படுகிறது. செயற்கை நுண்ணறிவு நெறிமுறைகளைப் பயன்படுத்துவதை உறுதி செய்ய, தேசிய அரசுகளும், நாடுகடந்த அரசும் அரசு சாரா அமைப்புகளும் இப்போது பல முயற்சிகள் மேற்கொள்கின்றன.

செநு அறநெறி வேலை தனிப்பட்ட விழுமியங்களாலும் தொழில்முறை கடமைகளாலும் கட்டமைக்கப்பட்டுள்ளது. தரவு , நெறிநிரல்வழி சூழல் பொருளை உருவாக்குகிறது. எனவே செயற்கை நுண்ணறிவு நெறிமுறைப் பணிகளுக்கு ஊக்கமளிக்கப்பட வேண்டும்.[90]

அரசுகளுக்கிடையேயான முன்முயற்சிகள்[தொகு]

  • ஐரோப்பிய ஆணையம் செயற்கை நுண்ணறிவு குறித்த உயர்மட்ட வல்லுனர் குழுவைக் கொண்டுள்ளது. 2019, ஏப்பிரல் 8 அன்று இது அதன் " நம்பகமான செயற்கை நுண்ணறிவுக்கான அறநெறி வழிகாட்டுதல்களை " வெளியிட்டது.[91] ஐரோப்பிய ஆணையத்தில் எந்திரனியல், செயற்கை நுண்ணறிவு கண்டுபிடிப்புக்கான சிறப்புப் பிரிவு உள்ளது , இது 2020 பிப்ரவரி 19 அன்று செயற்கை நுண்ணறிவில் சிறந்து விளங்குதலும் நம்பிக்கையும் குறித்த வெள்ளை அறிக்கையை வெளியிட்டது.[92] ஐரோப்பிய ஆணையம் செயற்கை நுண்ணறிவுச் சட்டத்தையும் முன்மொழிந்தது.[93]
  • OECD ஒரு OECD செநு கொள்கையையும் கண்காணிப்பகத்தையும் நிறுவியுள்ளது.[94]
  • 2021 ஆம் ஆண்டில் , செயற்கை நுண்ணறிவின் அறநெறிகள் குறித்த பரிந்துரையை யுனெஸ்கோ ஏற்றுக்கொண்டது - இது செயற்கை நுண்ணறிவுகளின் அறநெறிகள் பற்றிய முதல் உலகளாவிய செந்தரமாகும்.[95][96]

அரசு முன்முயற்சிகள்[தொகு]

  • அமெரிக்காவில் ஒபாமா நிர்வாகம் செயற்கை நுண்ணறிவு கொள்கைக்கு ஒரு நெடுநோக்கு வரைபடத்தை ஒன்றாக இணைத்தது.[97] ஒபாமா நிர்வாகம் செயற்கை நுண்ணறிவின் எதிர்காலம், தாக்கம் குறித்த இரண்டு முக்கிய வெள்ளை ஆவணங்களை வெளியிட்டது. 2019 ஆம் ஆண்டில் வெள்ளை மாளிகை " அமெரிக்க செநு முன்முயற்சி " என்று அழைக்கப்படும் ஓராள்வியல் குறிப்பு வழி, தேசியச் செந்தரங்கள், தொழில்நுட்ப நிறுவனம்(NIST) செநு செந்தரங்களுக்காக கூட்டாட்சி ஈடுபாட்டில் 2019 பிப்ரவரியில் பணிகளைத் தொடங்குமாறு அறிவுறுத்தியது.[98]
  • ஜனவரி 2020 இல் அமெரிக்காவில் ட்ரம்ப் மேலாண்மை, பாதீட்டு அலுவலகம் (ஓ. எம். பி.) வெளியிட்ட வரைவு ஆட்சியியல் ஆணையை வெளியிட்டது. இந்த ஆணை செநு பயன்பாடுகளில் முதலீடு செய்வதன் தேவையை வலியுறுத்துகிறது. இது செநு பால் பொதுமக்களின் நம்பிக்கையை அதிகரித்தது. செநு பயன்பாட்டிற்கான தடைகளைக் குறைத்தது, மேலும் அமெரிக்கச் செநு தொழில்நுட்பத்தை உலக சந்தையில் போட்டித்தன்மையுடன் வைத்திருக்கச் செய்கிறது. இதில் தனியுரிமைக் கவலைகள் கட்டாயம் என்பதற்கு ஒப்புதல் உள்ளது;, ஆனால், செயலாக்கம் குறித்த கூடுதல் விவரங்கள் இல்லை. இது அமெரிக்கச் செயற்கை நுண்ணறிவு தொழில்நுட்பத்தின் முன்னேற்றங்கள் கவனம், முன்னுரிமையாகத் தெரிகிறது. கூட்டாட்சி நிறுவனங்கள் எந்தவொரு மாநிலச் சட்டங்களையும் ஒழுங்குமுறைகளையும் சுற்றில்விட இந்த ஆணையைப் பயன்படுத்த ஊக்குவிக்கப்படுகின்றன. ஒரு சந்தையில் இவற்றை நிறைவேற்றல் மிகவும் கடினமாக இருக்கும்.[99]
  • கணிப்புக் குமுகாயக் கூட்டமைப்பு (சி. சி. சி) 100 பக்கங்களுக்கும் மேற்பட்ட வரைவை அமெரிக்காவில் செயற்கை நுண்ணறிவு ஆராய்ச்சிக்கான 20 ஆண்டு சமூக நெடுநோக்கு வரைபடம்[100][101] எனும் தன் மதிப்பீட்டு அறிக்கையை வெளியிட்டது
  • பாதுகாப்பு, வளர்ந்து வரும் தொழில்நுட்ப மையம் , செயற்கை நுண்ணறிவு போன்ற வளர்ந்து வரும் தொழில்நுட்பங்களின் பாதுகாப்பு, தாக்கங்கள் குறித்து அமெரிக்க கொள்கை வகுப்பாளர்களுக்கு அறிவுரை வழங்குகிறது.
  • மனிதநேயமற்ற கட்சி நியூ சவுத் வேல்சில் தேர்தலுக்கு போட்டியிடுகிறது , எந்திரன்வகை விலங்குகள், பொதுவாக மனிதநேயமில்லாத நிறுவனங்களுக்கு உரிமைகள் வழங்குதல் பற்றிய கொள்கைகளை உளவுத்துறை கவனிக்கவில்லை.[102]
  • உருசியாவில் , வணிகத்திற்கான செயற்கை நுண்ணறிவின் அறநெறிகளின் முதல் உருசிய " விதிமுறைகள் " 2021 இல் கையெழுத்தானது. இது உருசியக் கூட்டமைப்பின் அரசுக்கான பகுப்பாய்வு மையத்தால் முதன்மை வணிக, கல்வி நிறுவனங்களான செர்பங்க் யாண்டெக்சு உரோசாட்டம் பொருளாதார உயர் பள்ளி, மாஸ்கோ இயற்பியல் தொழில்நுட்ப நிறுவனம், ITMO பல்கலைக்கழகம், நானோசெமண்டிக்சு, உரோசுடெலெகாம், சீயான்(CIAN) இன்னும் பிறவற்றால் இயக்கப்பட்டது.

கல்விசார் முன்முயற்சிகள்[தொகு]

  • ஆக்சுபோர்டு பல்கலைக்கழகத்தில் மூன்று ஆராய்ச்சி நிறுவனங்கள் உள்ளன , அவை செநு அறநெறிகளில் மையமாக கவனம் செலுத்துகின்றன. செயற்கை நுண்ணறிவு பாதுகாப்பு, செயற்கை நுண்ணறிவின் ஆளுகை ஆகிய இரண்டிலும் கவனம் செலுத்தும் மனிதநேய நிறுவனத்தின் எதிர்காலம்.[103] ஜான் தாசுயுலாசு இயக்கிய செநுவில் உள்ள அறநெறிகளுக்கான நிறுவனம் , அதன் முதன்மை குறிக்கோள் பிறவற்றுடன் தொடர்புடைய பயன்பாட்டு அறநெறித் துறைகளுடன் ஒப்பிடுகையில் செநு அறநெறிகளைச் சரியான ஒரு துறையாக ஊக்குவிப்பதாகும். உலூசியானோ புளோரிடியால் இயக்கப்பட்ட ஆக்சுபோர்டு இணைய நிறுவனம் , குறுகிய கால செயற்கை நுண்ணறிவு தொழில்நுட்பங்கள், தகவல் தொடர்பாடல், தொழில்நுட்பங்களின் அறநெறிகளில் கவனம் செலுத்துகிறது.[104]
  • பெர்லினில் உள்ள கெர்டி பள்ளியில் உள்ள கணினி ஆளுகை மையம் , அறநெறிகள், தொழில்நுட்பம் குறித்த கேள்விகளை ஆராய்ச்சி செய்வதற்காக ஜோனா பிரைசனால் இணைந்து நிறுவப்பட்டது.[105]
  • நியூயார்க் பல்கலைக்கழகத்தில் உள்ள இக்காலச் செயற்கை நுண்ணறிவு நிறுவனம் செயற்கை நுண்ணறிவின் சமூகத் தாக்கங்களை ஆய்வு செய்யும் ஒருராய்ச்சி நிறுவனமாகும். அதன் இடைநிலை ஆராய்ச்சி சார்புநிலை, உள்ளடக்கம், தொழிலாளர், தன்னியக்கமாக்க உரிமைகள், தற்சார்புச் சிக்கல்கள், பாதுகாப்பு, குடிமை உள்கட்டமைப்பு ஆகிய கருப்பொருள்களில் கவனம் செலுத்துகிறது.[106]
  • வளரும் தொழில்நுட்ப அறவியலுக்கான (ஐ. இ. இ. டி.) வேலையின்மையிலும் கொள்கையிலும் செயற்கை நுண்ணறிவின் விளைவுகளை ஆராய்ச்சி செய்கிறது.
  • கிறித்துப் இலாட்ஜ் இயக்கிய முனிச் தொழில்நுட்ப பல்கலைக்கழகத்தில் உள்ள செயற்கை நுண்ணறிவுக்கான அறநெறி நிறுவனம் (ஐ. இ. ஏ. ஐ.) இயக்கம் , வேலைவாய்ப்பு , நலவாழ்வு, நிலைப்பு போன்ற பல்வேறு களங்களில் ஆராய்ச்சியை நடத்துகிறது.[107]
  • ஆர்வர்டு ஜான் ஏ. பால்சன் பொறியியல், பயன்பாட்டு அறிவியல் பள்ளியில் இயற்கை அறிவியலின் இக்கின்சு பேராசிரியரான பார்பரா ஜே. குரோசு, ஆர்வர்டின் கணினி அறிவியல் பாடத்திட்டத்தில் உட்பொதிக்கப்பட்ட அறவியல் பாடத்தைத் தொடங்கினார் , இது எதிர்கால தலைமுறை கணினி அறிவியலாளர்களை உலக கண்ணோட்டத்துடன் உருவாக்க முயல்கிறது , இது அவர்களின் தொழில், சமூக தாக்கத்தையுக் கணக்கில் எடுத்துக்கொள்கிறது.[108]

தன்னார்வ தொண்டு நிறுவனங்கள் முன்முயற்சிகள்[தொகு]

எதிர்கால வாழ்க்கை நிறுவனம் என்ற பன்னாட்டு ஈட்டுதல் நோக்கற்ற அமைப்பு 2017 ஆம் ஆண்டில் அசிலோமரில் " நலந்தரும் செயற்கை நுண்ணறிவு " என்ற தலைப்பில் 5 நாள் மாநாட்டை நடத்தியது , இதன் விளைவாக செயற்கை நுண்ணறிவு ஆராய்ச்சியின் எதிர்காலத்திற்கான 23 வழிகாட்டும் கொள்கைகளின் தொகுப்பு உருவாகியது. பல்வேறு துறைகளைச் சேர்ந்த வல்லுனர்கள், சிந்தனைத் தலைவர்களுக்கிடையே பகிரப்பட்ட பார்வை வழி , இந்த மாநாடு செயற்கை நுண்ணறிவு ஆளுகை அதிபர்களுக்கு ஆராய்ச்சி சிக்கல்கல், நெறிமுறைகள், மதிப்புகள், நீண்டகால சிக்கல்களைத் தீர்ப்பதில் செல்வாக்கு மிக்க அடித்தளத்தை அமைத்தது.[109]

தனியார் நிறுவனங்கள்[தொகு]

  • நெறிநிரல் நீதிக் குழு(அல்காரிதம் ஜஸ்டிஸ் லீக்)[110]
  • AI இல் கருப்ப்பர்[111]
  • கருப்பர் வாழ்க்கைகளின் தரவு[112]
  • AI இல் வியன்முரண்(குயர்)[111]

புனைகதையின் பங்கும் தாக்கமும்[தொகு]

அறநெறிகள் தொடர்பான செயற்கை நுண்ணறிவு புனைகதைகளின் பங்கு சிக்கலான ஒன்றாகும். செயற்கை நுண்ணறிவு, எந்திரனியல் வளர்ச்சியில் புனைகதை ஏற்படுத்திய தாக்கத்தை ஏற்படுத்திய மூன்று மட்டங்களை ஒருவர் வேறுபடுத்தி அறியலாம்: வரலாற்று வழியாக, புனைகதை செயற்கை நுண்ணறிவுக்கான இலக்குகளிலும் தரிசனங்களிலும் செல்வாக்கு செலுத்தியது மட்டுமல்லாமல், அறநெறி கேள்விகள் அதனுடன் தொடர்புடைய பொதுவான அச்சங்களைக் கோடிட்டுக் காட்டியது. இருபதாம் நூற்றாண்டின் இரண்டாம் பாதி , இருபத்தியோராம் நூற்றாண்டின் முதல் பத்தாண்டுகளில், பரவிய பண்பாடு, குறிப்பாக திரைப்படங்கள், தொலைக்காட்சித் தொடர்கள், கானொலி விளையாட்டுகள்,செயற்கை நுண்ணறிவு, எந்திரனியல் தொடர்பான அறநெறிக் கேள்விகளைப் பற்றிய நாட்டமும் அச்சநிலைக் கணிப்புகளும் அடிக்கடி எதிரொலித்தன. அண்மையில், இந்த கருப்பொருள்கள் அறிவியல் புனைகதைகளின் எல்லைக்கு அப்பால் இலக்கியத்திலும் பேரளவில் கையாளப்படுகின்றன. மேலும், கேடலோனியா தொழில்நுட்ப பல்கலைக்கழகத்தின் எந்திரனியல், தொழிலக் கணிப்பியல் நிறுவனத்தின் ஆராய்ச்சி பேராசிரியரான கார் மே தோராசு குறிப்பிடுவது போல்,[113] உயர் கல்வியில், அறிவியல் புனைகதைகள் தொழில்நுட்பம் தொடர்பான கற்பித்தலில் தொழில்நுட்பப் பட்டங்களில் அறநெறிச் சிக்கல்கள்.கூடுதலாகப் பயன்படுத்தப்படுகின்றன.

வரலாறு.[தொகு]

வரலாற்று வழியாகச் சொல்வதென்றால் , சிந்திக்கும் எந்திரங்களின் அறநெறித் தாக்கங்கள் பற்றிய உசாவல் குறைந்தது அறிவொளி காலத்துக்கு நம்மை இட்டுச்செல்கிறது. லீப்னிட்சு ஏற்கனவே நுண்ணறிவை ஒரு உணர்ச்சிமிக்க தனியரைப் போல செயல்படும் ஒரு பொறிமுறையுடன் நாம் தொடர்புபடுத்த முடியுமா என்ற கேள்வியை முன்வைத்தார் , அதேபோல் தூரிங் செய்முறையின் தொடக்கநிலையைத் தெ கார்த்தே விவரிக்கிறார்.[114][115]

வியன்புனைவுக் காலம் பலமுறை செயற்கை உயிரினங்களைக் கற்பனை செய்துள்ளது , அவை அவற்றின் படைப்பாளரின் கட்டுப்பாட்டில் இருந்து கடுமையான விளைவுகளுடன் தப்பிக்கின்றன - மிகவும் செல்வாக்குள்ள மேரி செல்லியின் பிராங்கன்சுட்டைனில். 19ஆம், 20ஆம் நூற்றாண்டின் முற்பகுதியில் தொழில்மயமாக்கல், எந்திரமயமாக்கலில் பரவலான ஈடுபாடு இருந்ததால் , தொழில்நுட்ப வளர்ச்சிகளின் அறநெறித் தாக்கங்கள் கற்பனையின் முன்னணியில் கொண்டு வரப்பட்டன. உரோசுமின் பன்முகப்பொது எந்திரன்கள், காரல் குபெக்கின் உணர்ச்சியும் அடிமை உழைப்பும் செய்யும் எந்திரனின்( ரோபோ எனும் ஆங்கிலச் சொல் கட்டாய உழைப்புக்கான செக்மொழி வார்த்தையிலிருந்து பெறப்பட்டது) விளையாட்டு அகியற்றைக் கூறலாம். ஆனால் இவை 1921 இல் திரையிடப்பட்ட பின்னர் அது ஒரு பன்னாட்டு வெற்றியாகவும் மாறியது. 1921 இல் வெளியிடப்பட்ட ஜார்ஜ் பெர்னார்டுசாவின் நாடகம் முன்வைத்த மெத்துசெலாவுக்கு மீளுதல் ஒரு கட்டத்தில் மனிதர்களைப் போல செயல்படும் சிந்தனை எந்திரங்களின் செல்லுபடியாகும் கேள்விகளும், பிரிட்சு லாங்கின் 1927 ஆம் ஆண்டு திரைப்படமான மெட்ரோபோலிசு ஒரு தொழில்நுட்ப சமூகத்தின் ஒடுக்குமுறை ஆட்சிக்கு எதிராக சுரண்டப்பட்ட மக்கள்திரளின் எழுச்சியை வழிநடத்தும் ஓர் ஆந்திராய்டுமமதிர்வலைகளைச் சமூகத்தில் ஏற்படுத்தின.

தொழில்நுட்ப வளர்ச்சி மீதான தாக்கம்[தொகு]

வெல்லமுடியாத தொழில்நுட்பத்தால் ஆதிக்கம் செலுத்தக்கூடிய எதிர்காலத்தின் எதிர்பார்ப்பு எழுத்தாளர்கள், திரைப்படத் தயாரிப்பாளர்களின் கற்பனையை நீண்ட காலமாக தூண்டியிருந்தாலும் , ஒரு கேள்வி அடிக்கடி பகுப்பாய்வு செய்யப்படவில்லை. அதாவது தொழில்நுட்ப வளர்ச்சிக்கடூந்துதல் அளிப்பதில் புனைகதை எந்த அளவிற்கு பங்கு வகித்துள்ளது. உதாரணமாக , இளம் ஆலன் தூரிங் 1933 ஆம் ஆண்டில் மேற்கூறிய இழ்சாவின் நாடகத்தை பார்த்ததாகவும் , பாராட்டியதாகவும் ஆவணப்படுத்தப்பட்டுள்ளது. இலக்கவியல் கணினிக்கான அடித்தளத்தை அமைத்த அவரது முதல் ஆரம்ப கட்டுரை வெளியிடப்படுவதற்குக் குறைந்தது 3 ஆண்டுகளுக்கு முன்பே, அவர் இதை அறிந்திருப்பார் ஆர். யு. ஆர். போன்ற நாடகங்கள் இது ஒரு பன்னாட்டு வெற்றியாக இருந்ததோடு பல மொழிகளில் மொழிபெயர்க்கப்பட்டது.[116][117]

செயற்கை நுண்ணறிவு வளர்ச்சியின் கோட்பாடுகள் அறநெறித் தாக்கங்களை நிறுவுவதில் அறிவியல் புனைகதை எந்த பங்கு வகித்தது என்ற கேள்வியையும் ஒருவர் கேட்கலாம். ஐசக் அசிமோவ் 1942 ஆம் ஆண்டு சிறுகதை தொகுப்பின் ஒரு பகுதியான ரோபோ ஆர்தர் சி. கிளார்க்கின் சிறுகதையான தி சென்டினெல் என்ற சிறுகதையில் எந்திரனியலின் மூன்று விதிகளை கருத்தியலாக உருவகம் செய்தார். இது சுட்டான்லி குப்ரிக்கின் 2001 ஆண்டைய: ஓர் விண்வெளி ஒடிசி திரைப்படத்தை அடிப்படையாகக் கொண்டது , இது 1948 இல் எழுதப்பட்டு 1952 இல் வெளியிடப்பட்டது. மற்றொரு எடுத்துகாட்டு பிலிப் கே. திக்கின் ஏராளமான சிறுகதைகளும் புதினங்களும் ஆகும். குறிப்பாக, மின் ஆடு பற்றிய எந்திரன் கனவு 1968 இல் வெளியிடப்பட்டது. மனிதர்களிடமிருந்து பிரித்தறிய முடியாத எந்திரன்களின்களின் உணர்ச்சிகரத் துலங்கல்களை அளவிட தூரிங் செய்முறை, வெற்றிடத்தை ஆய்வுசெய், கள ஆய்வின் சொந்தப் பதிப்பைக் கொண்டுள்ளது. இந்தப் பின்னர் இரிட்லி சுக்காட்டு இயக்கிய 1982 ஆம் ஆண்டின் செல்வாக்குமிக்க திரைப்படமான பிளேட் ரன்னரின் அடிப்படையாக மாறியது.

அறிவியல் புனைகதை பல பத்தாண்டுகளாக செயற்கை நுண்ணறிவு முன்னேற்றங்களின் அறநெறித் தாக்கங்களுடன் போராடி வருகிறது , இதனால் பொது செயற்கை நுண்ணறிவுக்கு ஒத்த ஒன்றை அடைந்தவுடன் வெளிவரக்கூடிய அறநெறிச் சிக்கல்களுக்கான ஒரு வரைபடத்தை வழங்கியது. ஸ்பைக் ஜான்சின் 2013 திரைப்படம் ஒரு பயனர் தனது துடிப்பான அலைபேசியின் இயக்க முறைமையின் கவர்ச்சியான குரலைக் காதலித்தால் என்ன நடக்கும் என்பதைக் காட்டுகிறது. எக்சு மெசினா திரைப்படம் மறுபுறம் மிகவும் கடினமான கேள்வியைக் கேட்கிறது. ஒரு முகம், ஒரு கழிவிரக்க, சிற்றின்ப குரலால் மனிதனைப் போலவே உருவாக்கிய ஒரு தெளிவாக அடையாளம் காணக்கூடிய எந்திரனை எதிர்கொண்டால் , நாம் இன்னும் ஒரு உணர்ச்சிகரமான தொடர்பை ஏற்படுத்த முடியுமா ? என்ற கேள்வியை எழுப்புகிறது. (இ. டி. ஏ. காப்மேன் எழுதிய 1817 ஆம் ஆண்டு சிறுகதையான தி செண்ட்மன் திரைப்படம் ஏற்கனவே இரண்டு நூற்றாண்டுகளுக்கு முன்பு முன்வைக்கப்பட்ட ஒரு கருப்பொருளை எதிரொலிக்கிறது.)

செயற்கை உணர்வுள்ள உயிரினங்களுடன் இணைவாழ்வுக் கருப்பொருளும் அண்மைய இரண்டு புதினங்களின் கருப்பொருளாகும். இயன் மெக்ஈவான் எழுதிய என்னைப் போன்ற எந்திரங்கள் 2019 இல் வெளியிடப்பட்டது , இதில் பல தகவல்களுடன் ஒரு செயற்கை தனியர் ஒரு மனித இணையரை உள்ளடக்கிய காதல் - முக்கோணம் அமைகிறது. 2021 ஆம் ஆண்டில் வெளியிடப்பட்ட நோபல் பரிசு வென்ற கசுவோ இழ்சிகுரோவின் கிளாரா அண்ட் தி சன் என்பது கிளாரா அன் ' ஏ. எஃப் ' (செயற்கை நண்பர்) இன் முதல் நபர் கணக்கு , அவர் மரபனியலாக ' உயர்த்தப்பட்ட ' பிறகு (அதாவது மரபனியல் மேம்பாடுகளுக்கு உட்படுத்தப்பட்டு) உடன் வாழும் பெண்ணுக்கு உதவ தனது சொந்த வழியில் முயல்கிறார்.

தொலைக்காட்சி தொடர்[தொகு]

செயற்கை நுண்ணறிவுடன் தொடர்புடைய அறநெறி கேள்விகள் பல பத்தாண்டுகளாக அறிவியல் புனைகதை இலக்கியத்திலும் திரைப்படங்களிலும் இடம்பெற்றிருந்தாலும் , மிகநீண்ட, மிகவும் சிக்கலான கதை வரிகளும் கதைமாந்தர் வளர்ச்சியை விவரிக்கும் ஒரு வகையாக தொலைக்காட்சி தொடரின் தோற்றம் தொழில்நுட்பத்தின் அறநெறித் தாக்கங்களைக் கையாளும் சில குறிப்பிடத்தக்க பங்களிப்புகளுக்கு வழிவகுத்தது. சுவீடியத் தொடரான இயல் மாந்தர் (2012 - 2013) சமூகத்தில் செயற்கை உணர்வுள்ள உயிரினங்களின் ஒருங்கிணைப்புடன் தொடர்புடைய சிக்கலான அறநெறி, சமூக விளைவுகளைக் கையாண்டது. பிரித்தனிய அச்சந்தரும் அறிவியல் புனைகதை தொகுப்பு தொடர் பிளாக் மிர்ரர் (2013 - 2019) பல்வேறு வகையான அண்மையத் தொழில்நுட்ப முன்னேற்றங்களுடன் இணைக்கப்பட்ட அச்சந்தரும் கற்பனையான முன்னேற்றங்களை ஆய்வுசெய்ததில் குறிப்பிடத்தக்கது. பிரெஞ்சுத் தொடரான <i id="mwAs8">ஓசுமோசிசு</i> (2020), பிரித்தானியத் தொடரான தி ஒன் ஆகிய இரண்டும் தொழில்நுட்பம் <i id="mwAtE">ஒரு</i> தனியருக்கு சிறந்த கூட்டாளரைக் கண்டுபிடிக்க முயற்சித்தால் என்ன நடக்கும் என்ற கேள்வியைக் கையாள்கின்றன. நெட்பிக்சு தொடரான காதல்+ சாவு எந்திரன்களின் பல அத்தியாயங்கள் எந்திரன்களும் மனிதர்களும் இணைந்து ஒன்றாக வாழும் காட்சிகளை கற்பனை செய்துள்ளன. அவற்றில் மிகவும் முழுமைமிக்க ஒன்று S02 E01 ஆகும் , இது மனிதர்கள் தங்கள் வாழ்க்கையில் எந்திரன்களை அதிகமாக நம்பியிருந்தால் எந்திரன்கள் கட்டுப்பாட்டை மீறிச் செல்லும்போது ஏற்படும் விளைவுகள் எவ்வளவு மோசமாக இருக்கும் என்பதைக் காட்டுகிறது.[118]

புனைகதையிலும் விளையாட்டுகளிலும் எதிர்காலக் கண்ணோட்டங்கள்[தொகு]

பொழுதுபோக்கு நோக்கத்திற்காக கணினி கேம் கன்சோல்களால் உணர்ச்சிவசப்பட்ட மக்களுடன் உருவகப்படுத்தப்பட்ட உலகங்கள் உருவாக்கப்படும் எதிர்காலத்தை பதின்மூன்றாவது மாடி திரைப்படம் முன்வைக்கிறது. தி மேட்ரிக்ஸ் திரைப்படம் புவியில் ஆளுகை செலுத்தும் உயிரினங்கள் உணர்ச்சி எந்திரங்களாக இருக்கும் எதிர்காலத்தை விளக்குகிறது. மேலும் இதில் மனிதகுலம் மிகுந்த இனவாதத்துடன் நடத்தப்படுகிறது. சிறுகதை " தி பிளாங்க் டைவ் " மனிதகுலம் தன்னைத் தானே மென்பொருளாக மாற்றிக் கொண்ட ஓர் எதிர்காலத்தை முன்வைக்கிறது. இது நகலெடுக்கப்பட்டு உகந்ததாக்க முடிவதாக இருக்கும். மேலும் மென்பொருள் வகைகளுக்கு இடையிலான பொருத்தமான வேறுபாடு உணர்திறன் உள்ளதும் உணர்திறன் இல்லாததுமாகப் பகுக்கப்படுகிறது. இதே கருத்தை விண்கல்ப் பயண நெர்க்கடி மருத்துவ பருவரைவில் காணலாம் , இது அதன் படைப்பாளரான டாக்டர் சிம்மர்மனின் நனவில் குறைக்கப்பட்ட துணைக்குழுவின் வெளிப்படையான உணர்திறன் படி ஆகும் , அவர் சிறந்த நோக்கங்களுக்காக நெருக்கடி காலங்களில் மருத்துவ உதவி வழங்குவதற்கான அமைப்பை உருவாக்கியுள்ளார். இருநூற்றாண்டு மனிதன், இன்னும்பிற செயற்கை நுண்ணறிவுத். திரைப்படங்கள் விரும்பக்க்கூடிய உணர்ச்சிமிக்க எந்திரன்களின் சாத்தியக்கூறுகளைக் கையாள்கின்றன. மேலும், இது அசிமோவின் மூன்று எந்திரன் விதிகளின் சில கூறுபாடுகளை ஆராய்ந்தது. இந்த காட்சிகள் அனைத்தும் உணர்திறன் கொண்ட கணினிகளை உருவாக்குவதன் அறநெறியற்ற விளைவுகளை முன்கூட்டியே கணிக்க முயல்கின்றன.[119]

உயிரியல் நிரலைச் சேர்ந்த மக்கள்திரள் விளைவு தொடர் விளையாட்டுகளில் செயற்கை நுண்ணறிவின் அறநெறிகள் பல முதன்மைக் கருப்பொருள்களில் ஒன்றாகும்.[120] உலகளாவிய நரம்பியல் வலைப்பின்னல்வழி கணக்கீட்டுத் திறனை விரைவாக கூட்டுவதன் வழியாக தற்செயலாக செயற்கை நுண்ணறிவை உருவாக்கும் ஒரு நாகரிகத்தின் காட்சியை இது ஆராய்கிறது. இந்த நிகழ்வு புதிதாக உணர்த்தப்பட்ட கெத் மீது கரிம உரிமைகளை வழங்குவது பொருத்தமானது என்று உணர்ந்தவர்களுக்கும் , அவற்றை செலவழிப்பு எந்திரங்களாக தொடர்ந்து பார்த்து அவற்றை அழிக்க போராடியவர்களுக்கும் இடையே ஓர் அறநெறிப் பிளவை ஏற்படுத்தியது. தொடக்கநிலை மோதலுக்கு அப்பால் - எந்திரங்களுக்கும் அவற்றின் படைப்பாளர்களுக்கும் இடையிலான உறவின் சிக்கலானது கதை முழுவதும் தொடர்ந்து நடைபெறும் மற்றொரு கருப்பொருளாக மாறுகிறது.

டெட்ராய்டு மனிதனாக மாறுங்கள் என்பது அண்மையில் செயற்கை நுண்ணறிவின் அறநெறிகளைப் பற்றி விவாதிக்கும் மிகவும் பரவலான காணொலி விளயாட்டாகும். குவாண்டிக் ட்ரீம் நிறுவனம் விளையாட்டாளர்களுக்கு மிகவும் ஆழமான ஆட்டப் பட்டரிவை வழங்க ஊடாடும் கதைக்களங்களைப் பயன்படுத்தி விளையாட்டின் அத்தியாயங்களை வடிவமைத்தது. பயோனிக் குழுவின் மனிதப் பார்வையை மாற்றும் நோக்கத்தை அடைய வெவ்வேறு தேர்வுகளை செய்ய வெவ்வேறு நிகழ்வுகளை எதிர்கொள்ளும் வகையில் மூன்று வெவ்வேறு விழித்தெழுந்த உயிரனியல் தனியர்களை வீரர்கள் கையாளுகிறார்கள் , மேலும் வெவ்வேறு தேர்வுகள் வெவ்வேறு முடிவுகளுக்கு வழிவகுக்கும். உண்மையான செயற்கை நுண்ணறிவு உருவாக்கப்பட்டவுடன் எந்திரன்களின் உரிமைகளும் நலன்களும் நன்கு கருத்தில் கொள்ள இசைவுதரும் உயிரனியல் கண்ணோட்டத்தில் வீரர்களை வைக்கும் சில விளையாட்டுகளில் இதுவும் ஒன்றாகும்.[121]

காலப்போக்கில் விவாதங்கள் கியூகோ தெ காரிசு கெவின் வார்விக் ஆகியோரால் தொடங்கப்பட்ட " காஸ்மிஸ்டா " , " டெரான் " விவாதங்களில் வலியுறுத்தப்பட்டபடி , சாத்தியக்கூறுகளிலும் விரும்பத்தக்க தன்மையிலும் குறைவாகவே கவனம் செலுத்துகின்றன.[122] கியூகோ தெ காரிசு கூற்றுப்படி, ஓர் அண்டவியலாளர் உண்மையில் மனித இனங்களை விட அதிக நுண்னறிவு மிக்க வாரிசுகளை உருவாக்க முயல்கிறார்.

கேம்பிரிட்ஜ் பல்கலைக்கழகத்தின் வல்லுநர்கள் , செயற்கை நுண்ணறிவு என்பது புனைகதை, புனைகதை அல்லாதவற்றில் அதன் இடர்கள், நன்மைகள் பற்றிய உணர்வுகளைச் சிதைக்கும் வழிகளில் இனப்பாகுபாட்டுடன் வெள்ளை நிறமாக சித்தரிக்கப்படுகிறது என்று வாதிட்டனர்.[123]

மேலும் காண்க[தொகு]

குறிப்புகள்[தொகு]

  1. Müller, Vincent C. (30 April 2020). "Ethics of Artificial Intelligence and Robotics". Stanford Encyclopedia of Philosophy. Archived from the original on 10 October 2020. பார்க்கப்பட்ட நாள் 26 September 2020.
  2. Veruggio, Gianmarco (2011). "The Roboethics Roadmap". EURON Roboethics Atelier (Scuola di Robotica): 2. 
  3. Müller, Vincent C. (2020), Zalta, Edward N. (ed.), "Ethics of Artificial Intelligence and Robotics", The Stanford Encyclopedia of Philosophy (Winter 2020 ed.), Metaphysics Research Lab, Stanford University, archived from the original on 2021-04-12, பார்க்கப்பட்ட நாள் 2021-03-18
  4. Anderson. "Machine Ethics". Archived from the original on 28 September 2011. பார்க்கப்பட்ட நாள் 27 June 2011.
  5. Anderson, M.; Anderson, S.L. (July 2006). "Guest Editors' Introduction: Machine Ethics". IEEE Intelligent Systems 21 (4): 10–11. doi:10.1109/mis.2006.70. 
  6. Anderson, Michael; Anderson, Susan Leigh (15 December 2007). "Machine Ethics: Creating an Ethical Intelligent Agent". AI Magazine 28 (4): 15. doi:10.1609/aimag.v28i4.2065. 
  7. Boyles, Robert James M. (2017). "Philosophical Signposts for Artificial Moral Agent Frameworks". Suri 6 (2): 92–109. https://philarchive.org/rec/BOYPSF. 
  8. Bryson, Joanna; Diamantis, Mihailis; Grant, Thomas (September 2017). "Of, for, and by the people: the legal lacuna of synthetic persons". Artificial Intelligence and Law 25 (3): 273–291. doi:10.1007/s10506-017-9214-9. 
  9. "Principles of robotics". UK's EPSRC. September 2010. Archived from the original on 1 April 2018. பார்க்கப்பட்ட நாள் 10 January 2019.
  10. Evolving Robots Learn To Lie To Each Other பரணிடப்பட்டது 2009-08-28 at the வந்தவழி இயந்திரம், Popular Science, August 18, 2009
  11. 11.0 11.1 Call for debate on killer robots பரணிடப்பட்டது 2009-08-07 at the வந்தவழி இயந்திரம், By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  12. Science New Navy-funded Report Warns of War Robots Going "Terminator" பரணிடப்பட்டது 2009-07-28 at the வந்தவழி இயந்திரம், by Jason Mick (Blog), dailytech.com, February 17, 2009.
  13. 13.0 13.1 Navy report warns of robot uprising, suggests a strong moral compass பரணிடப்பட்டது 2011-06-04 at the வந்தவழி இயந்திரம், by Joseph L. Flatley engadget.com, Feb 18th 2009.
  14. AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study பரணிடப்பட்டது 2009-08-28 at the வந்தவழி இயந்திரம், Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  15. The Coming Technological Singularity: How to Survive in the Post-Human Era பரணிடப்பட்டது 2007-01-01 at the வந்தவழி இயந்திரம், by Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 by Vernor Vinge.
  16. Article at Asimovlaws.com பரணிடப்பட்டது மே 24, 2012 at the வந்தவழி இயந்திரம், July 2004, accessed 7/27/09.
  17. 17.0 17.1 Winfield, A. F.; Michael, K.; Pitt, J.; Evers, V. (March 2019). "Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue"]. Proceedings of the IEEE 107 (3): 509–517. doi:10.1109/JPROC.2019.2900622. பன்னாட்டுத் தர தொடர் எண்:1558-2256. https://ieeexplore.ieee.org/document/8662743. பார்த்த நாள்: 2020-11-21. 
  18. . 
  19. Al-Rodhan, Nayef (7 December 2015). "The Moral Code". https://www.foreignaffairs.com/articles/2015-08-12/moral-code. 
  20. Bostrom, Nick; Yudkowsky, Eliezer (2011). "The Ethics of Artificial Intelligence" (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Archived from the original (PDF) on 2016-03-04. பார்க்கப்பட்ட நாள் 2011-06-22.
  21. Santos-Lang, Chris (2002). "Ethics for Artificial Intelligences". Archived from the original on 2014-12-25. பார்க்கப்பட்ட நாள் 2015-01-04.
  22. Howard, Ayanna. "The Regulation of AI – Should Organizations Be Worried? | Ayanna Howard". MIT Sloan Management Review. Archived from the original on 2019-08-14. பார்க்கப்பட்ட நாள் 2019-08-14.
  23. 23.0 23.1 Jobin, Anna; Ienca, Marcello; Vayena, Effy (2 September 2020). "The global landscape of AI ethics guidelines". Nature 1 (9): 389–399. doi:10.1038/s42256-019-0088-2. 
  24. Floridi, Luciano; Cowls, Josh (2 July 2019). "A Unified Framework of Five Principles for AI in Society". Harvard Data Science Review 1. doi:10.1162/99608f92.8cd550d1. 
  25. Open Source AI. பரணிடப்பட்டது 2016-03-04 at the வந்தவழி இயந்திரம் Bill Hibbard. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel, and Stan Franklin.
  26. OpenCog: A Software Framework for Integrative Artificial General Intelligence. பரணிடப்பட்டது 2016-03-04 at the வந்தவழி இயந்திரம் David Hart and Ben Goertzel. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel, and Stan Franklin.
  27. Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free பரணிடப்பட்டது 2016-04-27 at the வந்தவழி இயந்திரம் Cade Metz, Wired 27 April 2016.
  28. "7001-2021 - IEEE Standard for Transparency of Autonomous Systems". IEEE. 4 March 2022. பார்க்கப்பட்ட நாள் 9 July 2023..
  29. Thurm, Scott (July 13, 2018). "MICROSOFT CALLS FOR FEDERAL REGULATION OF FACIAL RECOGNITION". Wired. Archived from the original on May 9, 2019. பார்க்கப்பட்ட நாள் January 10, 2019.
  30. Bastin, Roland; Wantz, Georges (June 2017). "The General Data Protection Regulation Cross-industry innovation" (PDF). Inside magazine. Deloitte. Archived from the original (PDF) on 2019-01-10. பார்க்கப்பட்ட நாள் 2019-01-10.
  31. "UN artificial intelligence summit aims to tackle poverty, humanity's 'grand challenges'". UN News. 2017-06-07. Archived from the original on 2019-07-26. பார்க்கப்பட்ட நாள் 2019-07-26.
  32. "Artificial intelligence – Organisation for Economic Co-operation and Development". www.oecd.org. Archived from the original on 2019-07-22. பார்க்கப்பட்ட நாள் 2019-07-26.
  33. Anonymous (2018-06-14). "The European AI Alliance". Digital Single Market – European Commission. Archived from the original on 2019-08-01. பார்க்கப்பட்ட நாள் 2019-07-26.
  34. European Commission High-Level Expert Group on AI (2019-06-26). "Policy and investment recommendations for trustworthy Artificial Intelligence". Shaping Europe’s digital future – European Commission (in ஆங்கிலம்). Archived from the original on 2020-02-26. பார்க்கப்பட்ட நாள் 2020-03-16.
  35. "EU Tech Policy Brief: July 2019 Recap". Center for Democracy & Technology. Archived from the original on 2019-08-09. பார்க்கப்பட்ட நாள் 2019-08-09.
  36. Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (2022-05-24). "AI-deploying organizations are key to addressing 'perfect storm' of AI risks" (in en). AI and Ethics 3 (1): 145–153. doi:10.1007/s43681-022-00163-7. பன்னாட்டுத் தர தொடர் எண்:2730-5961. பப்மெட்:35634256. பப்மெட் சென்ட்ரல்:9127285. https://doi.org/10.1007/s43681-022-00163-7. பார்த்த நாள்: 2022-05-29. 
  37. Gabriel, Iason (2018-03-14). "The case for fairer algorithms – Iason Gabriel". Medium. Archived from the original on 2019-07-22. பார்க்கப்பட்ட நாள் 2019-07-22.
  38. "5 unexpected sources of bias in artificial intelligence". TechCrunch. 10 December 2016. Archived from the original on 2021-03-18. பார்க்கப்பட்ட நாள் 2019-07-22.
  39. Knight, Will. "Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead". MIT Technology Review. Archived from the original on 2019-07-04. பார்க்கப்பட்ட நாள் 2019-07-22.
  40. Villasenor, John (2019-01-03). "Artificial intelligence and bias: Four key challenges". Brookings. Archived from the original on 2019-07-22. பார்க்கப்பட்ட நாள் 2019-07-22.
  41. Allison Koenecke; Nam, Andrew; Lake, Emily; Nudell, Joe; Quartey, Minnie; Mengesha, Zion; Toups, Connor; Rickford, John R. et al. (7 April 2020). "Racial disparities in automated speech recognition". Proceedings of the National Academy of Sciences 117 (14): 7684–7689. doi:10.1073/pnas.1915768117. பப்மெட்:32205437. Bibcode: 2020PNAS..117.7684K. 
  42. Friedman, Batya; Nissenbaum, Helen (July 1996). "Bias in computer systems". ACM Transactions on Information Systems 14 (3): 330–347. doi:10.1145/230538.230561. https://archive.org/details/sim_acm-transactions-on-information-systems_1996-07_14_3/page/330. 
  43. "Eliminating bias in AI". techxplore.com. Archived from the original on 2019-07-25. பார்க்கப்பட்ட நாள் 2019-07-26.
  44. Olson, Parmy. "Google's DeepMind Has An Idea For Stopping Biased AI". Forbes. Archived from the original on 2019-07-26. பார்க்கப்பட்ட நாள் 2019-07-26.
  45. "Machine Learning Fairness | ML Fairness". Google Developers. Archived from the original on 2019-08-10. பார்க்கப்பட்ட நாள் 2019-07-26.
  46. "AI and bias – IBM Research – US". www.research.ibm.com. Archived from the original on 2019-07-17. பார்க்கப்பட்ட நாள் 2019-07-26.
  47. Bender, Emily M.; Friedman, Batya (December 2018). "Data Statements for Natural Language Processing: Toward Mitigating System Bias and Enabling Better Science". Transactions of the Association for Computational Linguistics 6: 587–604. doi:10.1162/tacl_a_00041. 
  48. Pery, Andrew (2021-10-06). "Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities". DeepAI. Archived from the original on 2022-02-18. பார்க்கப்பட்ட நாள் 2022-02-18.
  49. Knight, Will. "Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead". MIT Technology Review. Archived from the original on 2019-07-04. பார்க்கப்பட்ட நாள் 2019-07-26.
  50. "Where in the World is AI? Responsible & Unethical AI Examples". Archived from the original on 2020-10-31. பார்க்கப்பட்ட நாள் 2020-10-28.
  51. Woody Evans (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Teknokultura 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072. 
  52. Yurii Sheliazhenko (2017). "Artificial Personal Autonomy and Concept of Robot Rights". European Journal of Law and Political Sciences: 17–21. doi:10.20534/EJLPS-17-1-17-21. http://cyberleninka.ru/article/n/artificial-personal-autonomy-and-concept-of-robot-rights. பார்த்த நாள்: 10 May 2017. 
  53. The American Heritage Dictionary of the English Language, Fourth Edition
  54. McGee, Glenn. "A Robot Code of Ethics". The Scientist. Archived from the original on 2020-09-06. பார்க்கப்பட்ட நாள் 2019-03-25.
  55. The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper,
  56. "Saudi Arabia bestows citizenship on a robot named Sophia". 26 October 2017. Archived from the original on 2017-10-27. பார்க்கப்பட்ட நாள் 2017-10-27.
  57. Vincent, James (30 October 2017). "Pretending to give a robot citizenship helps no one". The Verge. Archived from the original on 3 August 2019. பார்க்கப்பட்ட நாள் 10 January 2019.
  58. "Functionally effective conscious AI without suffering". Journal of Artificial Intelligence and Consciousness 7: 39-50. 2020. doi:10.1142/S2705078520300030. 
  59. Thomas Metzinger (February 2021). "Artificial Suffering: An Argument for a Global Moratorim on Synthetic Phenomenology". Journal of Artificial Intelligence and Consciousness 8: 43-66. doi:10.1142/S270507852150003X. 
  60. 60.0 60.1
  61. Kaplan, Andreas; Haenlein, Michael (January 2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons 62 (1): 15–25. doi:10.1016/j.bushor.2018.08.004. 
  62. "Google's Self-Driving Car Caused Its First Crash". https://www.wired.com/2016/02/googles-self-driving-car-may-caused-first-crash/. 
  63. "Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian". https://www.theguardian.com/technology/2018/mar/19/uber-self-driving-car-kills-woman-arizona-tempe. 
  64. "Who is responsible when a self-driving car has an accident?". Futurism. Archived from the original on 2019-07-26. பார்க்கப்பட்ட நாள் 2019-07-26.
  65. Radio, Business; Policy, Law and Public; Podcasts; America, North. "Autonomous Car Crashes: Who – or What – Is to Blame?". Knowledge@Wharton. Archived from the original on 2019-07-26. பார்க்கப்பட்ட நாள் 2019-07-26. {{cite web}}: |first= has generic name (help)
  66. Delbridge, Emily. "Driverless Cars Gone Wild". The Balance. Archived from the original on 2019-05-29. பார்க்கப்பட்ட நாள் 2019-05-29.
  67. Stilgoe, Jack (2020), "Who Killed Elaine Herzberg?", Who’s Driving Innovation? (in ஆங்கிலம்), Cham: Springer International Publishing, pp. 1–6, doi:10.1007/978-3-030-32320-2_1, ISBN 978-3-030-32319-6, archived from the original on 2021-03-18, பார்க்கப்பட்ட நாள் 2020-11-11
  68. Maxmen, Amy (October 2018). "Self-driving car dilemmas reveal that moral choices are not universal". Nature 562 (7728): 469–470. doi:10.1038/d41586-018-07135-0. பப்மெட்:30356197. Bibcode: 2018Natur.562..469M. 
  69. "Regulations for driverless cars". GOV.UK. Archived from the original on 2019-07-26. பார்க்கப்பட்ட நாள் 2019-07-26.
  70. "Automated Driving: Legislative and Regulatory Action – CyberWiki". cyberlaw.stanford.edu. Archived from the original on 2019-07-26. பார்க்கப்பட்ட நாள் 2019-07-26.
  71. "Autonomous Vehicles | Self-Driving Vehicles Enacted Legislation". www.ncsl.org. Archived from the original on 2019-07-26. பார்க்கப்பட்ட நாள் 2019-07-26.
  72. Robot Three-Way Portends Autonomous Future பரணிடப்பட்டது 2012-11-07 at the வந்தவழி இயந்திரம், By David Axe wired.com, August 13, 2009.
  73. New Navy-funded Report Warns of War Robots Going "Terminator" பரணிடப்பட்டது 2009-07-28 at the வந்தவழி இயந்திரம், by Jason Mick (Blog), dailytech.com, February 17, 2009.
  74. Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (March 2020). "The future of war: could lethal autonomous weapons make conflict more ethical?" (in en). AI & Society 35 (1): 273–282. doi:10.1007/s00146-019-00879-x. பன்னாட்டுத் தர தொடர் எண்:0951-5666. http://link.springer.com/10.1007/s00146-019-00879-x. பார்த்த நாள்: 2020-11-11. 
  75. Hellström, Thomas (June 2013). "On the moral responsibility of military robots". Ethics and Information Technology 15 (2): 99–107. doi:10.1007/s10676-012-9301-2. ProQuest 1372020233. 
  76. Mitra, Ambarish (5 April 2018). "We can train AI to identify good and evil, and then use it to teach us morality". Quartz. Archived from the original on 2019-07-26. பார்க்கப்பட்ட நாள் 2019-07-26.
  77. 77.0 77.1 Zach Musgrave and Bryan W. Roberts (2015-08-14). "Why Artificial Intelligence Can Too Easily Be Weaponized – The Atlantic". The Atlantic. Archived from the original on 2017-04-11. பார்க்கப்பட்ட நாள் 2017-03-06.
  78. Cat Zakrzewski (2015-07-27). "Musk, Hawking Warn of Artificial Intelligence Weapons". WSJ. Archived from the original on 2015-07-28. பார்க்கப்பட்ட நாள் 2017-08-04.
  79. Inside The Mind Of A.I. பரணிடப்பட்டது 2021-08-10 at the வந்தவழி இயந்திரம் - Cliff Kuang interview
  80. Bunn, Jenny (2020-04-13). "Working in contexts for which transparency is important: A recordkeeping view of explainable artificial intelligence (XAI)" (in en). Records Management Journal 30 (2): 143–153. doi:10.1108/RMJ-08-2019-0038. பன்னாட்டுத் தர தொடர் எண்:0956-5698. https://www.emerald.com/insight/content/doi/10.1108/RMJ-08-2019-0038/full/html. 
  81. 81.0 81.1 Muehlhauser, Luke, and Louie Helm. 2012. "Intelligence Explosion and Machine Ethics" பரணிடப்பட்டது 2015-05-07 at the வந்தவழி இயந்திரம். In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
  82. 82.0 82.1 Bostrom, Nick. 2003. "Ethical Issues in Advanced Artificial Intelligence" பரணிடப்பட்டது 2018-10-08 at the வந்தவழி இயந்திரம். In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, edited by Iva Smit and George E. Lasker, 12–17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
  83. Umbrello, Steven; Baum, Seth D. (2018-06-01). "Evaluating future nanotechnology: The net societal impacts of atomically precise manufacturing" (in en). Futures 100: 63–73. doi:10.1016/j.futures.2018.04.007. பன்னாட்டுத் தர தொடர் எண்:0016-3287. http://www.sciencedirect.com/science/article/pii/S0016328717301908. பார்த்த நாள்: 2020-11-29. 
  84. Yudkowsky, Eliezer. 2011. "Complex Value Systems in Friendly AI" பரணிடப்பட்டது 2015-09-29 at the வந்தவழி இயந்திரம். In Schmidhuber, Thórisson, and Looks 2011, 388–393.
  85. Umbrello, Steven (2019). "Beneficial Artificial Intelligence Coordination by Means of a Value Sensitive Design Approach" (in en). Big Data and Cognitive Computing 3 (1): 5. doi:10.3390/bdcc3010005. 
  86. Floridi, Luciano; Cowls, Josh; King, Thomas C.; Taddeo, Mariarosaria (2020). "How to Design AI for Social Good: Seven Essential Factors" (in en). Science and Engineering Ethics 26 (3): 1771–1796. doi:10.1007/s11948-020-00213-5. பன்னாட்டுத் தர தொடர் எண்:1353-3452. பப்மெட்:32246245. 
  87. Yampolskiy, Roman V. (2020-03-01). "Unpredictability of AI: On the Impossibility of Accurately Predicting All Actions of a Smarter Agent". Journal of Artificial Intelligence and Consciousness 07 (1): 109–118. doi:10.1142/S2705078520500034. பன்னாட்டுத் தர தொடர் எண்:2705-0785. https://www.worldscientific.com/doi/abs/10.1142/S2705078520500034. பார்த்த நாள்: 2020-11-29. 
  88. Wallach, Wendell; Vallor, Shannon (2020-09-17), "Moral Machines: From Value Alignment to Embodied Virtue", Ethics of Artificial Intelligence (in ஆங்கிலம்), Oxford University Press, pp. 383–412, doi:10.1093/oso/9780190905033.003.0014, ISBN 978-0-19-090503-3, archived from the original on 2020-12-08, பார்க்கப்பட்ட நாள் 2020-11-29
  89. Fiegerman, Seth (28 September 2016). "Facebook, Google, Amazon create group to ease AI concerns". https://money.cnn.com/2016/09/28/technology/partnership-on-ai/. 
  90. Slota, Stephen C.; Fleischmann, Kenneth R.; Greenberg, Sherri; Verma, Nitin; Cummings, Brenna; Li, Lan; Shenefiel, Chris (2023). "Locating the work of artificial intelligence ethics" (in en). Journal of the Association for Information Science and Technology 74 (3): 311–322. doi:10.1002/asi.24638. பன்னாட்டுத் தர தொடர் எண்:2330-1635. https://onlinelibrary.wiley.com/doi/10.1002/asi.24638. 
  91. "Ethics guidelines for trustworthy AI". Shaping Europe’s digital future – European Commission (in ஆங்கிலம்). European Commission. 2019-04-08. Archived from the original on 2020-02-20. பார்க்கப்பட்ட நாள் 2020-02-20.
  92. "White Paper on Artificial Intelligence – a European approach to excellence and trust | Shaping Europe's digital future". Archived from the original on 2021-03-06. பார்க்கப்பட்ட நாள் 2021-03-18.
  93. "Why the world needs a Bill of Rights on AI". 2021-10-18. https://www.ft.com/content/17ca620c-4d76-4a2f-829a-27d8552ce719. 
  94. "OECD AI Policy Observatory". Archived from the original on 2021-03-08. பார்க்கப்பட்ட நாள் 2021-03-18.
  95. Recommendation on the Ethics of Artificial Intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000381137.locale=en. 
  96. "UNESCO member states adopt first global agreement on AI ethics". Helsinki Times (in பிரிட்டிஷ் ஆங்கிலம்). 2021-11-26. பார்க்கப்பட்ட நாள் 2023-04-26.
  97. "The Obama Administration's Roadmap for AI Policy". https://hbr.org/2016/12/the-obama-administrations-roadmap-for-ai-policy. 
  98. "Accelerating America's Leadership in Artificial Intelligence – The White House". trumpwhitehouse.archives.gov. Archived from the original on 2021-02-25. பார்க்கப்பட்ட நாள் 2021-03-16.
  99. "Request for Comments on a Draft Memorandum to the Heads of Executive Departments and Agencies, "Guidance for Regulation of Artificial Intelligence Applications"". Federal Register. 2020-01-13. Archived from the original on 2020-11-25. பார்க்கப்பட்ட நாள் 2020-11-28.
  100. "Request Comments on Draft: A 20-Year Community Roadmap for AI Research in the US » CCC Blog". 13 May 2019. Archived from the original on 2019-05-14. பார்க்கப்பட்ட நாள் 2019-07-22.
  101. "CCC Offers Draft 20-Year AI Roadmap; Seeks Comments". HPCwire. 2019-05-14. Archived from the original on 2021-03-18. பார்க்கப்பட்ட நாள் 2019-07-22.
  102. "Non-Human Party". 2021. Archived from the original on 2021-09-20. பார்க்கப்பட்ட நாள் 2021-09-19.
  103. "China wants to shape the global future of artificial intelligence". MIT Technology Review (in ஆங்கிலம்). Archived from the original on 2020-11-20. பார்க்கப்பட்ட நாள் 2020-11-29.
  104. Floridi, Luciano; Cowls, Josh; Beltrametti, Monica; Chatila, Raja; Chazerand, Patrice; Dignum, Virginia; Luetge, Christoph; Madelin, Robert et al. (2018-12-01). "AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations" (in en). Minds and Machines 28 (4): 689–707. doi:10.1007/s11023-018-9482-5. பன்னாட்டுத் தர தொடர் எண்:1572-8641. பப்மெட்:30930541. 
  105. "Joanna J. Bryson". WIRED. பார்க்கப்பட்ட நாள் 13 January 2023.
  106. "New Artificial Intelligence Research Institute Launches" (in அமெரிக்க ஆங்கிலம்). 2017-11-20. Archived from the original on 2020-09-18. பார்க்கப்பட்ட நாள் 2021-02-21.
  107. "TUM Institute for Ethics in Artificial Intelligence officially opened". www.tum.de (in ஆங்கிலம்). Archived from the original on 2020-12-10. பார்க்கப்பட்ட நாள் 2020-11-29.
  108. Communications, Paul Karoff SEAS (2019-01-25). "Harvard works to embed ethics in computer science curriculum". Harvard Gazette (in அமெரிக்க ஆங்கிலம்). பார்க்கப்பட்ட நாள் 2023-04-06.
  109. "AI Principles". Future of Life Institute (in அமெரிக்க ஆங்கிலம்). பார்க்கப்பட்ட நாள் 2023-04-06.
  110. "When Bias Is Coded Into Our Technology". NPR. 2020-02-08. 
  111. 111.0 111.1 "How one conference embraced diversity" (in en). Nature 564 (7735): 161–162. 2018-12-12. doi:10.1038/d41586-018-07718-x. பப்மெட்:31123357. https://www.nature.com/articles/d41586-018-07718-x. பார்த்த நாள்: 2021-12-22. 
  112. "The 2020 Good Tech Awards". The New York Times. 2020-12-30. 
  113. Torras, Carme, (2020), “Science-Fiction: A Mirror for the Future of Humankind” in IDEES, Centre d'estudis de temes contemporanis (CETC), Barcelona. https://revistaidees.cat/en/science-fiction-favors-engaging-debate-on-artificial-intelligence-and-ethics/ பரணிடப்பட்டது 2021-04-22 at the வந்தவழி இயந்திரம் Retrieved on 2021-06-10
  114. Gottfried Wilhelm Leibniz, (1714): Monadology, § 17 ("Mill Argument"). See also: Lodge, P. (2014): "Leibniz's Mill Argument: Against Mechanical Materialism Revisited", in ERGO, Volume 1, No. 03) https://quod.lib.umich.edu/e/ergo/12405314.0001.003/--leibniz-s-mill-argument-against-mechanical-materialism?rgn=main;view=fulltext பரணிடப்பட்டது 2021-04-30 at the வந்தவழி இயந்திரம் Retrieved on 2021-06-10
  115. Cited in Bringsjord, Selmer and Naveen Sundar Govindarajulu, "Artificial Intelligence", The Stanford Encyclopedia of Philosophy (Summer 2020 Edition), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/sum2020/entries/artificial-intelligence/ பரணிடப்பட்டது 2022-03-08 at the வந்தவழி இயந்திரம்>. Retrieved on 2021-06-10
  116. Hodges, A. (2014), Alan Turing: The Enigma,Vintage, London, p. 334
  117. A. M. Turing (1936). "On computable numbers, with an application to the Entscheidungsproblem." in Proceedings of the London Mathematical Society, 2 s. vol. 42 (1936–1937), pp. 230–265.
  118. "Love, Death & Robots season 2, episode 1 recap - "Automated Customer Service"". Ready Steady Cut (in பிரிட்டிஷ் ஆங்கிலம்). 2021-05-14. Archived from the original on 2021-12-21. பார்க்கப்பட்ட நாள் 2021-12-21.
  119. AI narratives: a history of imaginative thinking about intelligent machines. 14 February 2020. 
  120. Jerreat-Poole, Adam (1 February 2020). "Sick, Slow, Cyborg: Crip Futurity in Mass Effect". Game Studies 20. பன்னாட்டுத் தர தொடர் எண்:1604-7982. http://gamestudies.org/2001/articles/jerreatpoole. பார்த்த நாள்: 11 November 2020. 
  121. ""Detroit: Become Human" Will Challenge your Morals and your Humanity". Coffee or Die Magazine (in அமெரிக்க ஆங்கிலம்). 2018-08-06. Archived from the original on 2021-12-09. பார்க்கப்பட்ட நாள் 2021-12-07.
  122. Cerqui, Daniela; Warwick, Kevin (2008), "Re-Designing Humankind: The Rise of Cyborgs, a Desirable Goal?", Philosophy and Design (in ஆங்கிலம்), Dordrecht: Springer Netherlands, pp. 185–195, doi:10.1007/978-1-4020-6591-0_14, ISBN 978-1-4020-6590-3, archived from the original on 2021-03-18, பார்க்கப்பட்ட நாள் 2020-11-11
  123. Cave, Stephen; Dihal, Kanta (6 August 2020). "The Whiteness of AI". Philosophy & Technology 33 (4): 685–703. doi:10.1007/s13347-020-00415-6.