സാന്ഫ്രാന്സിസ്കോ- കുട്ടികള് ഉള്പ്പെട്ട ലൈംഗികതയുള്ള അശ്ലീല ചിത്രങ്ങള് ഇനി ഐ ഫോണുകളും ഐപാഡുകളും സ്വയം തിരിച്ചറിയും. പുതിയ അപ്ഡേറ്റ് ഉടന് വരുമെന്ന് ആപ്പിള് അറിയിച്ചതോടെ വ്യക്തികളുടെ സ്വാകാര്യത സംബന്ധിച്ച സംശയങ്ങള് പലരും പ്രകടിപ്പിച്ചു തുടങ്ങി. യുഎസില് ഓണ്ലൈന് സ്റ്റോറേജില് അപ്ലോഡ് ചെയ്യുന്ന ഇത്തരം ഫോട്ടോകള് സ്വയം കണ്ടെത്തി റിപോര്ട്ട് ചെയ്യുന്ന സംവിധാനമാണ് ആപ്പിള് ഇപ്പോള് അവതരിപ്പിക്കുന്നത്. ഇത് സ്വകാര്യതയിലേക്കുള്ള കടന്ന് കയറ്റമാകുമോ എന്ന ആശങ്കയുമായി സ്വകാര്യതാ സംരക്ഷകരാണ് രംഗത്തെത്തിയത്.
കമ്യൂണിക്കേഷന് ഉപാധികള് ഉപയോഗിച്ച് കുട്ടികളെ റിക്രൂട്ട് ചെയ്യുന്നവരേയും ചൂഷണം ചെയ്യുന്നവരേയും തടഞ്ഞ് പീഡകരില് നിന്ന് കുട്ടികളെ സംരക്ഷിക്കാന് സഹായിക്കുകയും കുട്ടികള്ക്കെതിരായ ലൈംഗികാതിക്രമണ ചിത്രങ്ങള് പ്രചരിക്കുന്നത് പരിമിതപ്പെടുത്തുകയുമാണ് ഞങ്ങളുടെ ലക്ഷ്യം- ആപ്പ്ള് വ്യക്തമാക്കി.
ഇതിനായി പ്രത്യേകം തയാറാക്കിയ സോഫ്റ്റ്വെയര് ഐഫോണുകളിലേയും ഐപാഡുകളിലേയും ചിത്രങ്ങളില് കുട്ടികള് ഉള്പ്പെട്ട അശ്ലീല ചിത്രങ്ങളുണ്ടോ എന്ന് സ്വയം സ്കാന് ചെയ്ത് കണ്ടെത്തും. ശിശു സംരക്ഷണ ഏജന്സികള് നല്കുന്ന ചിത്രങ്ങളുമായി ഇവ ഒത്തു നോക്കി കണ്ടെത്തി റിപോര്ട്ട് ചെയ്യുന്നതാണ് ഈ സംവിധാനം. ആപ്പിള് ക്ലൗഡ് സ്റ്റോറേജില് അപ്ലോഡ് ചെയ്ത ചിത്രങ്ങളാണ് ഇങ്ങനെ കണ്ടെത്തുക.
എന്നാല് ഈ സാങ്കേതികവിദ്യ പിന്വാതിലിലൂടെ ഉപയോക്താക്കളുടെ ഡിവൈസുകളിലേക്ക് പ്രവേശിക്കാനുള്ള ഉപാധിയായി മാറുമെന്നും ഇത് സര്ക്കാരുകളും മറ്റും വ്യക്തികള്ക്കെതിരെ പ്രയോഗിക്കാനിടയുണ്ടെന്നും ഡിജിറ്റല് അവകാശ സംഘടനകള് ചൂണ്ടിക്കാട്ടുന്നു. എന്നാല് തങ്ങള്ക്ക് ഇത്തരം ചിത്രങ്ങളിലേക്ക് നേരിട്ട് ആക്സസ് ഇല്ലെന്നാണ് ആപ്പിളിന്റെ മറുപടി. സുരക്ഷയും സ്വകാര്യതയും സംരക്ഷിക്കാന് നടപടികളെടുക്കുമെന്നും കമ്പനി വ്യക്തമാക്കുന്നു.