നിര്മിതബുദ്ധി മനുഷ്യരെ കൊന്നൊടുക്കിയേക്കുമെന്ന് ഓക്സ്ഫഡിലേയും ഗൂഗിളിലേയും ഗവേഷകര്

സയന്സ് ഫിക്ഷന് സിനിമകളില് പലതിലും മനുഷ്യനും യന്ത്രമനുഷ്യനും തമ്മിലുള്ള യുദ്ധങ്ങള് കണ്ടിട്ടുണ്ട്. യന്ത്രങ്ങള്ക്ക് ബുദ്ധി നല്കുന്ന ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സിനെ കുറിച്ചുള്ള പ്രധാന ആശങ്കകളിലൊന്ന് അത് എന്നെങ്കിലും മനുഷ്യനെ തിരിഞ്ഞുകൊത്തുമോ എന്നുള്ളതാണ്. ഈ ആശങ്ക ഏറ്റുകയാണ് ഓക്സ്ഫഡ് സര്വകലാശാലയിലേയും ഗൂഗിളിലേയും ഗവേഷകര്.
ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സ് മനുഷ്യന്റെ വംശനാശത്തിന് കാരണമാവും എന്നാണ് എഐ മാഗസിന് ജേണലില് പ്രസിദ്ധീകരിച്ച പഠനത്തില് ഇവര് പറയുന്നത്.നമ്മള് ഇപ്പോള് കരുതുന്നതിനേക്കാള് ഗുരുതരമാകും എഐ (ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സ്) ഉയര്ത്തുന്ന ഭീഷണിയെന്ന് ഇവര് പറയുന്നു. മുഴുവന് മനുഷ്യനേയും എഐ കൊന്നൊടുക്കും എന്ന് വ്യക്തമായി പറയുകയാണ് ഗവേഷണം.
ഗൂഗിള് ഡീപ്പ് മൈന്ഡ് സീനിയര് ശസ്ത്രജ്ഞന് മാര്ക്കസ് ഹട്ടര്, ഓക്സഫഡ് ഗവേഷകരായ മൈക്കല് കോഹന്, മൈക്കല് ഓസ്ബോണ് എന്നിവര് ചേര്ന്നാണ് ഗവേഷണം നടത്തിയത്.സൃഷ്ടിച്ചെടുത്ത മനുഷ്യര് നിശ്ചയിച്ച നിയമങ്ങളെല്ലാം ഭാവിയില് ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സ് ലംഘിക്കുമെന്ന് ഇവര് പറയുന്നു.
എന്തെല്ലാം നിയമങ്ങളാണത് എന്ന് അവര് വ്യക്തമാക്കുന്നില്ല. എന്നാല് ഒരു പക്ഷെ മനുഷ്യനെ ആക്രമിക്കാതിരിക്കാനായി എഐയ്ക്ക് നല്കിയിരിക്കുന്ന നിര്ദേശങ്ങളെ ആവാം ഉദ്ദേശിച്ചത്.യന്ത്രങ്ങളും ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സും ആവശ്യത്തിന് പുരോഗമിച്ച് കഴിഞ്ഞാല് അവ അവശ്യ വിഭവങ്ങള്ക്ക് വേണ്ടി മനുഷ്യരോട് മത്സരിക്കും പ്രത്യേകിച്ച് ഊര്ജത്തിന് വേണ്ടി. അതോടുകൂടി മനുഷ്യന് അവയുടെ ഇടപെടലിന് കൊണ്ടുവന്ന ചട്ടങ്ങള് അവ ലംഘിക്കും.
മുമ്പുണ്ടായ പ്രസിദ്ധീകരണങ്ങളേക്കാള് വളരെ ശക്തമാണ് തങ്ങളുടെ കണ്ടെത്തലുകളും നിഗമനവുമെന്നും നമ്മുടെയെല്ലാം അസ്തിത്വത്തെ ബാധിക്കുന്ന ആ ദുരന്തം ഒരു സാധ്യതയല്ലെന്നും നടക്കാനിടയുണ്ടെന്നും ഗവേഷണ പ്രബന്ധത്തില് പങ്കാളിയായ കോഹന് പറഞ്ഞു.അങ്ങനെ ഒരു ഭീഷണി ഒഴിവാക്കാന് എന്ത് വില കൊടുത്തും ഭീഷണികള് നേരിടണമെന്നും അവയുടെ കമ്പ്യൂട്ടറുകള് സംരക്ഷിക്കണമെന്നും ഗവേഷകര് പറഞ്ഞു. ഈ ഗെയിമില് പരാജയപ്പെട്ടാല് അത് മനുഷ്യന് മാരകമായിരിക്കും. അവര് പറഞ്ഞു.
അടുത്തിടെ ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സിന് സ്വന്തമായി വികാരമുണ്ടെന്ന് അഭിപ്രായപ്പെട്ട ഒരു ജീവനക്കാരനെ ഗൂഗിള് പുറത്താക്കിയിരുന്നു. ഗൂഗിളിന്റെ തന്നെ ലാംഡ എഐയ്ക്കാണ് സ്വന്തം വൈകാരികതയുണ്ടെന്ന് സോഫ്റ്റ് വെയര് എന്ജിനീയറായ ബ്ലെക്ക് ലെമോയിന് അഭിപ്രായപ്പെട്ടത്. എന്നാല് ഇത് അടിസ്ഥാന രഹിതമാണെന്നും ആശയവിനിമയത്തിന് വേണ്ടി തയ്യാറാക്കിയതിനാല് മനുഷ്യ സമാനമായ സംഭാഷണങ്ങള് നടത്താന് അവയെ പരിശീലിപ്പിച്ചിട്ടുണ്ടെന്നും അതുകൊണ്ടാണ് അവ സ്വന്തം വൈകാരികതയില് നിന്ന് സംസാരിക്കുന്നതായി തോന്നുന്നത് എന്നുമാണ് മറുപക്ഷത്തിന്റെ വാദം