- ആണവയുദ്ധമടക്കമുള്ള ദുരന്തങ്ങളും വിദഗ്ധർ മുന്നിൽ കാണുന്നു
നിർമിത ബുദ്ധിയായിരിക്കും (ആർടിഫിഷ്യൽ ഇന്റലിജൻസ്-എ.ഐ) അടുത്ത വ്യാവസായിക വിപ്ലവമെന്ന് വിദഗ്ധർ കരുതുന്നു. ആണവയുദ്ധത്തിലേക്ക് വരെ അതു നയിച്ചേക്കുമെന്ന് ആശങ്കപ്പെടുന്നവരുമുണ്ട്. നാച്വറൽ ലാംഗ്വേജ് പ്രോസസിംഗിലെ 480 വിദഗ്ധരോടാണ് നിർമിത ബുദ്ധിയെ കുറിച്ചുള്ള അവരുടെ അഭിപ്രായം ഗവേഷകർ ആരാഞ്ഞത്. സമൂഹത്തിൽ വിപ്ലവകരമായ മാറ്റങ്ങൾക്ക് ഇത് കാരണമാകുമെന്നതോടൊപ്പം അത് ദുരന്തം വരുത്തുമെന്നും പലരും അഭിപ്രായപ്പെട്ടു. എ.ഐ ചാറ്റ്ബോട്ടായ ചാറ്റ്ജിപിടി പുറത്തിറക്കിയ പശ്ചാത്തലത്തിലായിരുന്നു സർവെ. ആഗോളതലത്തിൽ എ.ഐ വരുത്തുന്ന ആഘാതങ്ങളെ കുറിച്ച് നിരവധി മെഷീൻ ലേണിംഗ് വിദഗ്ധർ ആശങ്കയിലാണ്. ന്യൂയോർക്ക് യൂനിവേഴ്സറ്റിയിലേയും മറ്റു സ്കൂളുകളിലേയും ഒരു സംഘം ഗവേഷകരാണ് അക്കാദമിക് വിദഗ്ധർ, വ്യാവസായിക മേഖലയിലെ പ്രൊഫഷണലുകൾ, പൊതുമേഖലാ ജീവനക്കാർ എന്നിവരിൽനിന്നാണ് തങ്ങളുടെ നാച്വറൽ ലാംഗ്വേജ് പ്രക്രിയയുമായി ബന്ധപ്പെട്ട മേഖലയെ കുറിച്ചുള്ള അഭിപ്രായങ്ങൾ ശേഖരിച്ചത്. ആർടിഫിഷ്യൽ ജനറൽ ഇന്റലിജൻസ് (എ.ജി.ഐ), ബിസിനസ് മേഖലയിലും ധാർമിക മേഖലയിലും അതിന്റെ സ്വാധീനം എന്നിവയാണ് പരിശോധിക്കാൻ ആവശ്യപ്പെട്ടിരുന്നത്.
നിർമിത ബുദ്ധിയുടെ നിലവിലെ സ്ഥിതിയെ കറിച്ചും അതുവഴി വരാനിടയുള്ള പ്രധാന വെല്ലുവിളികളെ കുറിച്ചുമാണ് വിദഗ്ധരോട് ചോദിച്ചത്. ആലോചിക്കുന്നതടക്കം മനുഷ്യർ നിർവഹിക്കുന്ന സങ്കീർണ ദൗത്യങ്ങൾ നിർവഹിക്കുമ്പോൾ തന്നെ നിർമിത ബുദ്ധി തീരുമാനങ്ങൾ ആണവ യുദ്ധതലത്തിലുള്ള ദുരന്തത്തിലേക്കുവരെ നയിക്കുമെന്ന ആശങ്കകളാണ് പങ്കുവെക്കപ്പെട്ടത്. സമൂഹത്തിൽ അത്രമാത്രം പരിവർത്തനത്തിനു എ.ഐ കാരണമാകും.
നിർമിത ബുദ്ധി അടിസ്ഥാനമാക്കിയുള്ള തൊഴിൽമേഖലയുടെ നവീകരണം പുതിയ വ്യവസായ വിപ്ലവത്തിലേക്ക് നയിക്കുമെന്ന കാര്യത്തിൽ സർവേയിൽ പങ്കെടുത്ത 480 പേരിൽ 73 ശതമാനത്തിനും സംശയമില്ല. ആവി എഞ്ചിനും ടെലഗ്രാഫും കണ്ടുപിടിച്ച കാലത്ത് സംഭവിച്ചതുപോലുള്ള വ്യാവസായിക വിപ്ലവമാണ് അവർ മുന്നിൽ കാണുന്നത്. അതേസമയം സർവേയിൽ പങ്കെടുത്തവരിൽ 36 ശതമാനം വലിയ ദുരന്തങ്ങൾക്ക് ഈ മാറ്റം കാരണമാകുമെന്ന് ആശങ്കപ്പെടുന്നു. തുറന്ന ആണവ യുദ്ധത്തിലേക്ക് വരെ നയിക്കാമെന്നാണ് അവർ പറയുന്നത്. എന്താണ് ഇവരുടെ ഈ ആശങ്കക്ക് അടിസ്ഥാനമെന്ന വിശദാംശങ്ങൾ ഈ സർവേയിൽ ചർച്ച ചെയ്തിട്ടില്ല. മെഷീൻ ലേണിംഗ് സംവിധാനങ്ങൾ വരുത്തുന്ന അപകടങ്ങൾ മുന്നിൽ വെച്ചായിരിക്കാം ഇത്. ക്ലീനിംഗിനായി സംവിധാനിച്ച റോബോട്ടുകൾ ചുമരുകൾ തകർത്തതു പോലുള്ള സംഭവങ്ങൾ മുന്നിലുണ്ട്. വലിയ തോതിലുള്ള അടിസ്ഥാന സൗകര്യങ്ങളുടെ തകർച്ചയിലേക്കും ചിലപ്പോൾ എ.ഐ പിഴവുകൾ നയിച്ചേക്കാം. രാഷ്ട്രീയ സംഘർഷ വേളകളിലും പ്രകൃതിദുരന്ത സമയത്തുമൊക്കെ ഇത്തരം തകർച്ചകളുണ്ടായാൽ അത് വലിയ ആഘാതമായിരിക്കും ഏൽപിക്കുക.
ലോകമെമ്പാടും ആവേശത്തോടെ വരവേറ്റ ചാറ്റ്ജിപിടി പുറത്തിറക്കുന്നതിനു തൊട്ടുമുമ്പാണ് ഈ സർവേ നടന്നത്. ഇപ്പോൾ സർവേ നടത്തുകയാണെങ്കിൽ വിദഗ്ധരിൽനിന്ന് കുറേക്കൂടി വ്യക്തമായ ഉത്തരങ്ങൾ ലഭിക്കും. കഴിഞ്ഞ ജനുവരിയിൽ ചാറ്റ്ജിപിടി ഉപയോക്താക്കൾ 100 മില്യൺ കവിഞ്ഞുവെന്നാണ് റോയിട്ടേഴ്സ് റിപ്പോർട്ട്. നിർമിത ബുദ്ധി തൊഴിലില്ലാതാക്കുമോ എന്ന പുതിയ ചർച്ച ഇപ്പോൾ സജീവമാണ്. കുറിപ്പുകളും ലേഖനങ്ങളും എഴുതാൻ മാത്രമല്ല, വലിയ ഡാറ്റകൾ എളുപ്പത്തിൽ വിശകലനം ചെയ്യാനുള്ള കഴിവും ചാറ്റ്ജിപിടിക്കുണ്ട്. സാമ്പത്തിക വിശകലന വിദഗ്ധരുടേയും ഉള്ളടക്കം തയാറാക്കുന്നവരുടേയും ജോലിയെ ഇതു ബാധിക്കുമെന്നാണ് കരുതപ്പെടുന്നത്. ലഭിക്കുന്ന മറുപടികളിലും വിശകലനങ്ങളിലും അപാകതകൾക്കുള്ള സാധ്യതയുണ്ടെങ്കിൽ പോലും ചാറ്റ്ജിപിടിയെ വ്യാപകമായി ആശ്രയിക്കാനുള്ള സാധ്യതകളാണ് മുന്നിൽ കാണുന്നത്.
വൻകിട ടെക് കമ്പനികളായ മൈക്രോസോഫ്റ്റും ഗൂഗിളും സ്വന്തം എ.ഐ ചാറ്റ്ബോട്ടുകളിലൂടെ മത്സരം തുടങ്ങിയിരിക്കെ സാധാരണ ഉപയോക്താക്കളും ഇതേക്കുറിച്ച് ആശങ്ക ഉയർത്തി തുടങ്ങിയിട്ടുണ്ട്. എ.ഐ ഉൾപ്പെടുത്തി മൈക്രോസോഫ്റ്റ് അവരുടെ സെർച്ച് എൻജിനായ ബിംഗ് പുതുക്കിയതോടെ ലഭിച്ച മറുപടികളെ കുറിച്ച് ഉപയോക്താക്കൾ ആശങ്ക അറിയിച്ചിരുന്നു. ചാറ്റ് ഏതാനും ചോദ്യങ്ങളിലേക്കും ഉത്തരങ്ങളിലേക്കും പരിമിതപ്പെടുത്തിയിരുന്ന മൈക്രോസോഫ്റ്റിന് പിന്നീട് തീരുമാനം മാറ്റേണ്ടി വന്നു. സർവേയിൽ പങ്കെടുത്ത വിദഗ്ധർക്കു പുറമെ, വ്യാവസായിക രംഗത്തെ പ്രമുഖരും നിർമിത ബുദ്ധി സമൂഹത്തെ മാറ്റുമെന്നാണ് അഭിപ്രായപ്പെടുന്നത്.
ഭാവി സംസ്കാരം നേരിടാനിരിക്കുന്ന ഏറ്റവും വലിയ വെല്ലുവിളിയാണ് കൃത്രിമ ബുദ്ധിയെന്നാണ് ശതകോടീശ്വരൻ എലോൺ മസ്ക് ഈയിടെ ഒരു സമ്മേളനത്തിൽ അഭിപ്രായപ്പെട്ടത്. ഏതാനും ദശാബ്ദത്തിനകം നിർമിത ബുദ്ധിക്ക് മനുഷ്യരെ പോലെ ചിന്തിക്കാനും പ്രവർത്തിക്കാനും സാധിക്കുമെന്നാണ് മെറ്റയുടെ മുൻ എക്സിക്യുട്ടീവ് ജോൺ കർമാക് വിശ്വസിക്കുന്നത്. യുദ്ധരംഗത്ത്, ആണവായുധങ്ങൾ നിർവഹിക്കുന്നതുപോലെ വലിയ ആഘാതമുണ്ടാക്കാൻ നിർമിത ബുദ്ധിക്ക് കഴിയുമെന്ന് ഗൂഗിളിന്റെ മുൻ സി.ഇ.ഇ എറി ഷിമിറ്റ് അഭിപ്രായപ്പെടുന്നു. ഇവരുടെയൊക്കെ നിഗമനങ്ങൾ പക്ഷം ചേർന്നുള്ളതാകാമെങ്കിലും പരിഗണനയിൽനിന്ന് ഒഴിവാക്കാൻ സാധിക്കാത്തതാണ്.