

ഇലോൺ മസ്കിന്റെ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് മോഡലായ 'ഗ്രോക്ക്' (Grok AI) ഉപയോഗിച്ച് യഥാർത്ഥ വ്യക്തികളുടെ ചിത്രങ്ങൾ എഡിറ്റ് ചെയ്യുന്നതിന് എക്സ് (X) കടുത്ത നിയന്ത്രണങ്ങൾ ഏർപ്പെടുത്തി. യഥാർത്ഥ വ്യക്തികളുടെ ചിത്രങ്ങളിൽ ബിക്കിനി ഉൾപ്പെടെയുള്ള വസ്ത്രങ്ങൾ ധരിപ്പിക്കാനോ, അശ്ലീലമായ രീതിയിൽ ചിത്രങ്ങളിൽ മാറ്റം വരുത്താനോ ഇനി ഗ്രോക്ക് അനുവദിക്കില്ല. ഗ്രോക്ക് ഉപയോഗിച്ച് വ്യാപകമായി ലൈംഗിക ചുവയുള്ള ഡീപ് ഫേക്ക് ചിത്രങ്ങൾ നിർമ്മിക്കപ്പെടുന്നു എന്ന ആഗോള പ്രതിഷേധത്തെത്തുടർന്നാണ് ഈ നടപടി.
കാലിഫോർണിയയിലെ അറ്റോർണി ജനറൽ റോബ് ബോണ്ട ഈ വിഷയത്തിൽ ഔദ്യോഗിക അന്വേഷണം പ്രഖ്യാപിച്ചതിന് തൊട്ടുപിന്നാലെയാണ് എക്സ് ഈ സുരക്ഷാ ക്രമീകരണങ്ങൾ കൊണ്ടുവന്നത്. സ്ത്രീകളുടെയും കുട്ടികളുടെയും ചിത്രങ്ങൾ ഇത്തരത്തിൽ ദുരുപയോഗം ചെയ്യുന്നത് നിരുത്തരവാദപരമാണെന്ന് വിവിധ രാജ്യങ്ങൾ മുന്നറിയിപ്പ് നൽകിയിരുന്നു. ഗ്രോക്കിന്റെ ഇമേജ് ജനറേഷൻ സേവനം നിലവിൽ പണം നൽകുന്ന വരിക്കാർക്ക് മാത്രമായി പരിമിതപ്പെടുത്തിയിരിക്കുകയാണ്. ഇത് ദുരുപയോഗം ചെയ്യുന്നവരെ എളുപ്പത്തിൽ കണ്ടെത്താൻ സഹായിക്കുമെന്ന് എക്സ് അധികൃതർ വ്യക്തമാക്കി
Facing global backlash and legal scrutiny, Elon Musk's X has restricted its Grok AI from editing photos of real people into revealing clothing to prevent sexualized deepfakes. The move follows a formal investigation by California’s Attorney General and bans in countries like Malaysia and Indonesia over privacy and safety concerns. By limiting these image tools to paid subscribers and implementing geoblocking in certain regions, X aims to increase accountability for users who misuse the AI technology.