

നമ്മളിൽ പലരുടെയും ജീവിതത്തിൽ നിന്നും മാറ്റി നിർത്താൻ കഴിയാത്ത ഒരു വസ്തുവായി AI ചാറ്റ്ബോട്ടുകൾ ( AI chatbots) മാറി കഴിഞ്ഞു. കുശലം പറയാൻ, ഹോം വർക്ക് ചെയ്യാൻ, ഇമെയിൽ എഴുതാൻ, എന്നിങ്ങനെ ജീവിതത്തിന്റെ എല്ലാ കോണുകളിലും AI ചാറ്റ്ബോട്ടുകൾ കൈയടക്കി കഴിഞ്ഞു. പാലപ്പഴും പലരും ആരോടും പറയാൻ കഴിയാത്ത സങ്കടങ്ങൾ പലതും AI ചാറ്റ്ബോട്ടുകളോട് തുറന്നു പറയാറുണ്ട്. അങ്ങേയറ്റം വ്യക്തിപരമായ കാര്യങ്ങൾ പോലും AI ചാറ്റ്ബോട്ടുകളോട് യാതൊരു മടിയും കുടുക്കാതെ തുറന്നു പറയുന്നവർ ഏറെയാണ്. ഇത് കൂടാതെ നാനോ ബനാന, 3D ഫിഗറിൻ, സ്റ്റുഡിയോ ഗിബ്ലി സ്റ്റൈലുകൾ എന്നിങ്ങനെ സ്വന്തം ചിത്രത്തെ ചാറ്റ്ബോട്ടുകൾക്ക് നൽകി കൊണ്ട് വ്യത്യസ്ത ശൈലിയിൽ പുനർസൃഷ്ട്ടിക്കുന്നു. AI ചാറ്റ്ബോട്ടുകൾ തങ്ങളെ ചതിക്കില്ല എന്ന വിശ്വാസത്തിൽ ഉറച്ചാണ് നമ്മൾ ഇതിനെല്ലാം മുതിരുന്നത്. എന്നാൽ ശെരിക്കും AI ചാറ്റ്ബോട്ടുകൾ നമ്മൾ ഉപഭോക്താക്കളെ ചതിക്കുമോ?
ChatGPT, Gemini പോലുള്ള ആർട്ടിഫിഷ്യൽ ഇൻ്റലിജൻസ് ചാറ്റ്ബോട്ടുകൾ ദൈനംദിന ജീവിതത്തിൻ്റെ ഭാഗമായി മാറിയെങ്കിലും, ചാറ്റുകൾ സ്വകാര്യമല്ലെന്നും അവ സൂക്ഷിക്കപ്പെടാനോ, വിശകലനം ചെയ്യപ്പെടാനോ, ചോർത്തപ്പെടാനോ സാധ്യതയുണ്ടെന്നും വിദഗ്ധർ മുന്നറിയിപ്പ് നൽകുന്നു. സ്വകാര്യത, ഐഡൻ്റിറ്റി മോഷണം, ഡാറ്റാ ദുരുപയോഗം തുടങ്ങിയ ഗുരുതരമായ അപകടസാധ്യതകൾ ഒഴിവാക്കാൻ AI ചാറ്റ്ബോട്ടുകളുമായി പങ്കിടാൻ പാടില്ലാത്ത 10 കാര്യങ്ങൾ താഴെ നൽകുന്നു:
പാസ്വേഡുകൾ: ബാങ്കിംഗ്, ഇമെയിൽ, സോഷ്യൽ മീഡിയ ലോഗിൻ ക്രെഡൻഷ്യലുകൾ ചാറ്റ്ബോട്ടുകളുമായി പങ്കിടരുത്.
സാമ്പത്തിക വിവരങ്ങൾ: ബാങ്ക് അക്കൗണ്ട് നമ്പറുകൾ, ക്രെഡിറ്റ് കാർഡ് വിവരങ്ങൾ, അല്ലെങ്കിൽ സർക്കാർ ഐഡികൾ (ഉദാഹരണത്തിന്, സോഷ്യൽ സെക്യൂരിറ്റി നമ്പറുകൾ) എന്നിവ നൽകുന്നത് തട്ടിപ്പിനും മോഷണത്തിനും വഴിവയ്ക്കും.
സെൻസിറ്റീവ് ചിത്രങ്ങളോ രേഖകളോ: ഐഡികൾ, പാസ്പോർട്ടുകൾ, ഡ്രൈവിംഗ് ലൈസൻസുകൾ, സ്വകാര്യ ഫോട്ടോകൾ എന്നിവ അപ്ലോഡ് ചെയ്യുന്നത് സുരക്ഷിതമല്ല. ഡിലീറ്റ് ചെയ്താലും ഡിജിറ്റൽ അടയാളങ്ങൾ അവശേഷിക്കാൻ സാധ്യതയുണ്ട്.
ജോലിയുമായി ബന്ധപ്പെട്ട രഹസ്യ ഡാറ്റ: കമ്പനിയുടെ ആഭ്യന്തര റിപ്പോർട്ടുകൾ, തന്ത്രങ്ങൾ, വ്യാപാര രഹസ്യങ്ങൾ എന്നിവ AI സിസ്റ്റങ്ങളിലേക്ക് നൽകരുത്. ഈ ഡാറ്റ മോഡലുകളെ പരിശീലിപ്പിക്കാൻ ഉപയോഗിക്കുകയും ചോർന്നുപോകാൻ കാരണമാവുകയും ചെയ്യാം.
നിയമപരമായ വിഷയങ്ങൾ: കരാറുകൾ, തർക്കങ്ങൾ, കേസുകൾ എന്നിവയുടെ വിശദാംശങ്ങൾ പങ്കിടരുത്. ചാറ്റ്ബോട്ട് ഉപദേശങ്ങൾ പലപ്പോഴും അപൂർണ്ണമോ തെറ്റിദ്ധാരണ ഉണ്ടാക്കുന്നതോ ആയിരിക്കും.
ആരോഗ്യപരമോ മെഡിക്കൽ സംബന്ധമായതോ ആയ വിവരങ്ങൾ: രോഗലക്ഷണങ്ങളെക്കുറിച്ചോ ചികിത്സകളെക്കുറിച്ചോ ചോദിക്കുന്നത് തെറ്റായ വിവരങ്ങളിലേക്ക് നയിച്ചേക്കാം. വ്യക്തിഗത ആരോഗ്യ ഡാറ്റ, കുറിപ്പടികൾ (prescriptions) എന്നിവ ചോർന്നാൽ അത് അപകടകരമാണ്.
വ്യക്തിഗത വിവരങ്ങൾ: മുഴുവൻ പേര്, വിലാസം, ഫോൺ നമ്പർ, ഇമെയിൽ എന്നിവ ഒറ്റയ്ക്കൊറ്റയ്ക്ക് ദോഷകരമല്ലെങ്കിലും, ഇവ ഒരുമിച്ച് ലഭിച്ചാൽ ഐഡൻ്റിറ്റി വെളിപ്പെടുത്താനും സ്കാമുകൾക്ക് ഇരയാകാനും സാധ്യതയുണ്ട്.
രഹസ്യങ്ങളോ കുറ്റസമ്മതങ്ങളോ: AI-യിൽ ടൈപ്പ് ചെയ്യുന്നത് സ്വകാര്യമല്ല. വ്യക്തിപരമായ രഹസ്യങ്ങൾ സിസ്റ്റം ലോഗുകളിൽ രേഖപ്പെടുത്താൻ സാധ്യതയുണ്ട്.
ലൈംഗികമോ അനുചിതമോ ആയ ഉള്ളടക്കം: ലൈംഗിക ഉള്ളടക്കം, മോശം പരാമർശങ്ങൾ, നിയമവിരുദ്ധമായ വിവരങ്ങൾ എന്നിവ സിസ്റ്റം ലോഗുകളിൽ രേഖപ്പെടുത്തപ്പെടുകയും നിങ്ങളുടെ അക്കൗണ്ട് താൽക്കാലികമായി റദ്ദാക്കപ്പെടുന്നതിനോ അല്ലെങ്കിൽ വെളിപ്പെടുത്തപ്പെടുന്നതിനോ കാരണമാവുകയും ചെയ്യാം.
പൊതുവാക്കാൻ ഇഷ്ടമില്ലാത്ത എന്തും: നിങ്ങൾ ഓൺലൈനിൽ പോസ്റ്റ് ചെയ്യാൻ ആഗ്രഹിക്കാത്ത ഒന്നും AI ചാറ്റ്ബോട്ടുകളുമായി പങ്കിടരുത് എന്നതാണ് പ്രധാന നിയമം. ചാറ്റ്ബോട്ടുകളുമായുള്ള ഇടപെടലുകൾ ഭാവിയിൽ പൊതുവാക്കപ്പെടാൻ സാധ്യതയുണ്ടെന്ന് കരുതി വേണം കൈകാര്യം ചെയ്യാൻ.
Experts warn that using AI chatbots like ChatGPT and Gemini involves significant privacy risks, as interactions are not confidential and may be stored or analyzed. Users should never share the following 10 items to prevent privacy breaches, fraud, and data misuse: Passwords , Financial details, Sensitive images or documents, Work-related confidential data, Legal issues, Health or medical information Personal information, Secrets or confessions, Explicit or inappropriate content, and Anything you wouldn’t want public.