'ഡീപ്പ് ഫേക്കു'കള്‍ എന്നാല്‍ എന്താണെന്ന് അറിയുമോ...? ലളിതമായി പറഞ്ഞാല്‍ ഡിജിറ്റല്‍ സാങ്കേതികവിദ്യ ഉപയോഗിച്ച് കൃത്രിമത്വം കാണിച്ച ചിത്രങ്ങള്‍... അതാകട്ടെ പലപ്പോഴും, ഒറിജിനലിനെ വെല്ലുന്ന സംഭവങ്ങള്‍. ഇത്തരം ഡീപ്പ് ഫേക്കുകള്‍ ഉണ്ടാക്കാന്‍ ഉപയോഗിക്കുന്ന ഒരു സാങ്കേതിക വിദ്യയാണ് 'ജനറേറ്റീവ് അഡ്വേഴ്സറിയല്‍ നെറ്റ്വര്‍ക്‌സ്' (GAN). സാധാരണക്കാര്‍ക്ക് കേട്ടാല്‍ സംഭവം പിടികിട്ടുകയില്ലെങ്കിലും എന്താണ് ഈ സാങ്കേതികവിദ്യ എന്ന് മനസ്സിലാക്കാം. പക്ഷേ, GAN-നെ കൂടുതല്‍ മനസ്സിലാക്കാന്‍ എങ്ങനെയാണ് ഒരു ന്യൂറല്‍ നെറ്റ്വര്‍ക്ക് ചിത്രങ്ങളിലെ വസ്തുക്കളെയും മുഖങ്ങളെയും മനസ്സിലാക്കുന്നത് എന്ന് നോക്കാം.

ഗൂഗിള്‍ ലെന്‍സ് പോലെയുള്ള ആപ്പുകള്‍ ചിത്രം 'കണ്ട്' മനസ്സിലാക്കുന്നത് നിങ്ങള്‍ ശ്രദ്ധിച്ചുകാണുമല്ലോ. സാധാരണ ഒരു ചിത്രത്തെ കുഞ്ഞുശകലങ്ങളാക്കി, -ആ ചെറുശകലങ്ങള്‍ തമ്മിലുള്ള ബന്ധം നോക്കിയാണ് ചിത്രത്തിലുള്ളത് പൂച്ചയാണോ, പൂവാണോ എന്ന് മനസ്സിലാക്കുന്നത്. പക്ഷേ, GAN സാങ്കേതികവിദ്യയുടെ കാതല്‍ ഇത്തരം രണ്ട് സംവിധാനങ്ങളാണ്. ആദ്യത്തേത് ചിത്രത്തില്‍ ഉള്ളത് പൂച്ചയോ പൂവോ ഒക്കെയാണെന്ന് മനസ്സിലാക്കിയാല്‍, രണ്ടാമത്തേത് ഈ ചെറു ശകലങ്ങള്‍ കൊണ്ട് ഒന്നാമത്തെ നെറ്റ്വര്‍ക്ക് പറയുന്ന വസ്തു/വ്യക്തിയുടെ ചിത്രം നിര്‍മിക്കാന്‍ കഴിയുമോ എന്ന് നോക്കാം.

രണ്ട് നെറ്റ്വര്‍ക്കുകള്‍ തമ്മിലുള്ള ഈ 'യുദ്ധം' കൊണ്ടാണ് GAN സാങ്കേതികവിദ്യയെ അഡ്വേഴ്സറിയല്‍ എന്ന് പറയുന്നത്. ഈ സാങ്കേതികവിദ്യ ഉപയോഗിക്കുന്ന 'ഇല്ലാ'മനുഷ്യരുടെ ചിത്രങ്ങള്‍ നിര്‍മിക്കുന്ന ThisPersonDoesNotExist.com പോലെയുള്ള സേവനങ്ങളൊക്കെ ഈ അടുത്തകാലത്ത് പ്രചാരത്തില്‍വന്നത് നിങ്ങള്‍ ശ്രദ്ധിച്ചുകാണുമല്ലോ. ഇപ്പറഞ്ഞ സൈറ്റില്‍ നിങ്ങള്‍ ചെന്നാല്‍ കാണുന്ന ചിത്രങ്ങള്‍ ഒന്നും യഥാര്‍ഥ മനുഷ്യരുടെ ചിത്രങ്ങളല്ല. എല്ലാംതന്നെ മറ്റുള്ളവരുടെ മുഖങ്ങളിലെ ചെറുശകലങ്ങള്‍ കൊണ്ട് നിര്‍മിച്ച കള്ള ഫോട്ടോകളാണ്.

ഇനിയൊരു ചോദ്യം, ഈ സാങ്കേതികവിദ്യയില്‍ ലോക ഒന്നാം നമ്പര്‍ രാജ്യം ഏതാണെന്ന് ഊഹിക്കാമോ...? ഇത്തരം സാങ്കേതികവിദ്യയില്‍ ലോക ഒന്നാം നമ്പര്‍ രാജ്യം ചൈനതന്നെ! സാങ്കേതികവിദ്യ എന്നത് നല്ല ഉദ്ദേശ്യത്തോടെ മാത്രമല്ലല്ലോ രാജ്യങ്ങള്‍ ഉപയോഗിക്കുന്നത്. അലോസരപ്പെടുത്തുന്ന വസ്തുത എന്തെന്നാല്‍, ചൈന ഈ വിദ്യ ഉപയോഗിച്ച് കള്ളത്തരങ്ങള്‍ ഒളിഞ്ഞിരിക്കുന്ന മാപ്പുകള്‍ നിര്‍മിക്കാന്‍ തുടങ്ങിയത്രെ. എന്നിട്ട്, ഇത്തരം സാറ്റലൈറ്റ് മാപ്പുകള്‍ ഓപ്പണ്‍ സോഴ്‌സ് ആയി ഇറക്കുകയാണ് ഇവരുടെ പരിപാടി. ഇതിന്റെ ഭവിഷ്യത്തോ? ഈ വിവരശകലങ്ങള്‍ ഉപയോഗിച്ച് തീരുമാനമെടുക്കുന്ന സംവിധാനങ്ങളുടെ പദ്ധതികള്‍ തലകുത്തനെ മറിയും. 

ഒരു പാലമില്ലാത്ത സ്ഥലത്ത് പാലം കാണിക്കുന്ന മാപ്പുകള്‍ നിര്‍മിച്ചാല്‍ ആ മാപ്പ് ഉപയോഗിക്കുന്നവര്‍ക്കുണ്ടാകുന്ന ബുദ്ധിമുട്ടൊന്ന് ആലോചിച്ചുനോക്കൂ. ഗൂഗിള്‍ മാപ്സ് വഴിതെറ്റിച്ചാല്‍ വഴിതെറ്റുന്ന നമ്മുടെ അവസ്ഥയെക്കാളും എത്രയോ ഭയാനകമായിരിക്കും അബദ്ധങ്ങള്‍ ഒളിഞ്ഞിരിക്കുന്ന മാപ്പുകള്‍ ഉപയോഗിച്ച് പ്രവര്‍ത്തിക്കുന്ന സൈനിക സംവിധാനങ്ങള്‍!

GAN സാങ്കേതികവിദ്യയുടെ 'നല്ല' ഉപയോഗം സത്യവും അസത്യവും തമ്മില്‍ തിരിച്ചറിയാനാ യിരുന്നു. ചിത്രങ്ങളിലെ വിവരങ്ങള്‍ അപഗ്രഥിച്ച് തിരിച്ചറിയുക എന്ന 'നല്ല' ജോലി. ഇങ്ങനെ മാപ്പിലെ വസ്തുക്കളെ കണ്ടെത്താന്‍ ഉപയോഗിച്ചിരുന്ന സാങ്കേതികവിദ്യയാണ് ഇപ്പോള്‍ ഫേക് വസ്തുക്കളെ മാപ്പുകളില്‍ ചേര്‍ക്കാനായി ചൈന ഉപയോഗിക്കാന്‍ തുടങ്ങിയിരിക്കുന്നത്.

സൈനികപദ്ധതികളെ കള്ള മാപ്പുകള്‍ക്ക് വഴിതെറ്റിക്കാന്‍ സാധിക്കുമെന്ന് നേരത്തെ പറഞ്ഞുവെങ്കിലും കള്ള മാപ്പുകള്‍ ഓപ്പണ്‍ സോഴ്‌സ് ആയി ലഭ്യമാക്കിയാല്‍, നാളെ അത് ഗൂഗിള്‍ മാപ്സ് ടെസ്ല കാര്‍ കമ്പനിയില്‍ ഉപയോഗിച്ചേക്കാം. എന്നിട്ട് ഗൂഗിള്‍ മാപ്‌സിലെ വിവരങ്ങളില്‍ അബദ്ധങ്ങള്‍ തുന്നിച്ചേര്‍ക്കാം, ടെസ്ല കാറുകളെ വഴിതിരിച്ചുവിടാന്‍.

ചൈന കാണിക്കുന്ന ഈ വഴിതെറ്റിക്കല്‍ പരിപാടിയില്‍ പെടാതിരിക്കാന്‍ നമുക്ക് സാധിക്കുമോ...? 'എളുപ്പമല്ല' എന്നതാണ് ഒറ്റവാക്കിലുള്ള ഉത്തരം.

സൈനിക-ഇന്റലിജന്‍സ് സംവിധാനങ്ങള്‍ ഒരുമിച്ച് പ്രവര്‍ത്തിച്ചാല്‍ ഇത്തരം തട്ടിപ്പുകള്‍ കുത്തിത്തിരുകുന്ന സാങ്കേതികവിദ്യയെ ചെറുക്കാന്‍ സാധിക്കും. പക്ഷേ, അതിന് പണവും സമയവും കുറച്ചൊന്നുമല്ല വേണ്ടത്. ഈ മേഖലയില്‍ ചൈന കൈവരിക്കുന്ന അഭൂതപൂര്‍വമായ കുതിപ്പില്‍, 'എല്ലാവരെയും തോല്‍പ്പിക്കുക' എന്ന, സാമൂഹിക ബോധം തൊട്ടുതീണ്ടാത്ത ഒരുതരം ഉന്മത്തമായ അവസ്ഥയാണ് അവരെ ഈ ദിശയിലേക്ക് നയിക്കുന്നത്. 

'ഓപ്പണ്‍ സോഴ്‌സ്' എന്ന ചിന്താഗതിയുടെ അടിത്തറതന്നെ പൊതു സഞ്ചയത്തിലേക്കുള്ള വിവരങ്ങളില്‍ 'ആരും മനഃപൂര്‍വമായി തട്ടിപ്പുകള്‍ നടത്തില്ല' എന്നതാണ്. ഉപയോക്താക്കളില്‍ വിശ്വാസക്കുറവും ഭീതിയും ജനിപ്പിക്കാന്‍ കെല്‍പ്പുള്ളതാണ് ചൈനയുടെ ഈ തലതിരിഞ്ഞ പരിപാടി. സാങ്കേതികവിദ്യയുടെ തെറ്റായ ഉപയോഗം എന്നതിന് ഈ അടുത്തകാലത്ത് വന്ന വലിയൊരു ഉദാഹരണമാണ് ചൈനയുടെ ഈ മാപ്പ് തിരിമറി.

Content Highlights: deep fake technology war between goodnes and evil