SignIn
Kerala Kaumudi Online
Monday, 15 September 2025 3.55 PM IST

'നാനോ ബനാന' എഐ സാരി ചിത്രങ്ങൾ സൃഷ്‌ടിച്ച്‌ ഇൻസ്റ്റയിലടക്കം ഷെയർ ചെയ്‌തോ? ഇക്കാര്യങ്ങൾ ശ്രദ്ധിക്കണം

Increase Font Size Decrease Font Size Print Page
ai-saree

സോഷ്യൽ മീഡിയ പ്ളാറ്റ്‌ഫോമുകളിൽ ഓരോ കാലത്തും യൂസേഴ്‌സ് പലതരം ട്രെൻഡുകൾ ഉണ്ടാക്കാറുണ്ട്. പലപ്പോഴും ഇത്തരം ട്രെൻഡുകൾ ലോകമാകെ ചർച്ചചെയ്യപ്പെടാം.ഗൂഗിളിന്റെ നാനോ ബനാനവഴി ത്രീഡി മോഡലും ചെറുപ്രതിമയും ഉണ്ടാക്കുന്ന ട്രെൻഡ് അടുത്തിടെ ഉണ്ടായതാണ്. ഇതിനൊപ്പം നാനോ ബനാന ഇമേജ് ജനറേറ്റർ ടൂൾവഴി ഉണ്ടായ മറ്റൊരു ട്രെൻഡാണ് എഐ സാരി ചിത്രങ്ങൾ. പെൺകുട്ടികൾ അവരുടെ ചിത്രം നൽകുമ്പോൾ നാനോ ബനാന ഇമേജ് ജനറേറ്റർ ടൂൾ വളരെ കൗതുകകരവും ഭംഗിയേറിയതുമായ സാരി ചിത്രങ്ങളാക്കി അവ തിരികെ തരും. ഈ ട്രെൻഡിനൊപ്പം നിൽക്കാത്തവർ പോലും ഇതെന്തെന്ന് അറിയാൻ സർച്ച് ചെയ്‌തിട്ടുണ്ടാകും.

ഗൂഗിൾ ജെമിനിയുടെ നാനോ ബനാന ടൂൾ വഴി നിങ്ങളെ ഒരു കാർട്ടൂണിഷ് ഛായയുള്ള, വിടർന്ന കണ്ണുകളും തിളങ്ങുന്ന ചർമ്മവുമുള്ള ആളുകളായാണ് അവതരിപ്പിക്കുക. എല്ലാക്കാലത്തും ഉണ്ടാകുന്നതുപോലെ ഇത്തരം സോഷ്യൽമീഡിയ ട്രെൻഡുകൾ എത്രത്തോളം സുരക്ഷിതമാണ് എന്ന ചിന്ത ഇപ്പോൾ ഉയരുന്നുണ്ട്. ഇക്കാര്യം പരിശോധിക്കാം.

ഗൂഗിൾ, ഓപ്പൺ എഐ പോലുള്ള ടെക്ക് കമ്പനികൾ ഉപഭോക്താക്കൾ അപ്‌ലോഡ് ചെയ്യുന്ന കണ്ടന്റുകൾ സംരക്ഷിക്കാൻ നടപടിയെടുക്കാറുണ്ടെങ്കിലും അവ മറ്റിടങ്ങളിൽ പങ്കുവയ്‌ക്കുമ്പോൾ നമ്മുടെ തന്നെ സുരക്ഷാ മാനദണ്ഡങ്ങളാണ് ശ്രദ്ധിക്കേണ്ടത്. തന്റെ ചിത്രമോ മറ്റോ തെറ്റായി ഉപയോഗിക്കാൻ സാദ്ധ്യതയുണ്ടെന്നോ, അനുമതിയില്ലാതെ അവയിൽ മാറ്റം വരുത്താമോ എന്നോ തെറ്റായ വിവരം നൽകി പങ്കുവയ്‌ക്കപ്പെടുമോ എന്നെല്ലാം അറിഞ്ഞ് തീരുമാനമെടുക്കേണ്ടത് വ്യക്തികൾ തന്നെയാണ്.

എഐ വഴി സൃഷ്‌ടിച്ചെടുത്ത ചിത്രങ്ങൾ കണ്ടാൽ ഒറിജിനൽ ആണോ എന്ന് സംശയം തോന്നുന്നത് സാധാരണമാണ്. അത്തരം ഫോട്ടോകൾ ഡീപ്‌ഫേക്കിന് സാദ്ധ്യത ഏറെയാണെങ്കിലും ഗൂഗിൾ ഡീപ്‌മൈൻഡിലെ SynthID ഡിജിറ്റൽ വാട്ടർമാർക്ക് ഇവയിലുണ്ടാകും. ഇത് സാധാരണ നോക്കുമ്പോൾ കാണില്ലെങ്കിലും പ്രത്യേക ഡിറ്റ‌ക്‌ഷൻ ടൂളുകൾ ഉപയോഗിച്ച് പരിശോധിച്ചാൽ അത്തരം ചിത്രങ്ങൾ എഐ നിർമ്മിതമാണെന്ന് തിരിച്ചറിയാൻ കഴിയും. ഇത് വ്യക്തികൾക്കും വിവിധ പ്ളാറ്റ്‌ഫോമുകൾക്കും ചിത്രത്തിന്റെ ആധികാരികത ഉറപ്പിക്കാൻ സഹായിക്കും.

എന്നാൽ ടാറ്റ്‌ലർ ഏഷ്യ റിപ്പോർട്ട് ചെയ്യുന്നതനുസരിച്ച് ഡിജിറ്റൽ വാട്ടർമാർക്ക് പരിശോധനക്കുള്ള ഡിറ്റക്ഷൻ ടൂൾ പൊതുസമൂഹത്തിൽ ലഭ്യമല്ലാത്തതിനാൽ എല്ലാവർക്കും ചിത്രങ്ങളുടെ ആധികാരികത ഉറപ്പിക്കാൻ കഴിയില്ല എന്ന പോരായ്‌മ ഉണ്ട്. എന്നാൽ എഐ ഡിറ്റക്ഷൻ സ്റ്റാർട്ടപ്പ് ആയ റിയാലിറ്റി ഡിഫന്ററിന്റെ സിഇഒ ബെൻ കോൾമൻ പറയുന്നതനുസരിച്ച് അത് അറിവുള്ളവർക്ക്‌ എളുപ്പത്തിൽ വ്യാജമായി നിർമ്മിക്കാൻ കഴിയും. നീക്കം ചെയ്യാനും, മായ്‌ചുകളയാനും കഴിയും അതിനാൽ അതിനെ വിശ്വാസത്തിലെടുക്കുക പ്രയാസമാണ്. എഐ നിർമ്മിതമെന്നറിയാൻ വാട്ടർമാർക്കിംഗ് സഹായിക്കുമെങ്കിലും അത് മാത്രമാണ് മികച്ച വഴിയെന്ന് കരുതാനാകില്ല എന്നാണ് മറ്റുചില വിദഗ്ദ്ധർ പറയുന്നത്.

അപ്പോൾ സുരക്ഷിതമായി എങ്ങനെ ഫോട്ടോകൾ സൂക്ഷിക്കാം എന്ന ചോദ്യത്തിന് വിദഗ്ദ്ധർ നൽകുന്ന മറുപടി ഇവയൊക്കെയാണ്.

എന്ത് അപ്‌ലോഡ് ചെയ്യണം എന്ന് സ്വയം തീരുമാനിക്കുക: നാം നൽകുന്ന ചിത്രത്തിനനുസരിച്ചുള്ള സുരക്ഷ മാത്രമേ എഐ ടൂൾ ചിത്രങ്ങൾക്ക് നൽകാനാകൂ. തികച്ചും വ്യക്തിപരമായതും, സ്വകാര്യവുമായ ചിത്രങ്ങൾ എഐക്ക് നൽകാതിരിക്കുകയാണ് ആദ്യം വേണ്ടത്.

വിവരങ്ങൾ മറയ്‌ക്കുക: ചിത്രങ്ങൾ അപ്‌ലോഡ് ചെയ്യുംമുൻപ് ലൊക്കേഷൻ ടാഗ്, ഡിവൈസ് ഇൻഫർമേഷൻ എന്നിവയൊക്കെ വരുന്നത് ഓഫ് ചെയ്യുക. അനാവശ്യമായി വിവരങ്ങൾ ചോർത്തുന്നത് ഇതിലൂടെ തടയാൻ സാധിക്കും.

പ്രൈവസി സെറ്റിംഗ്‌സ്: ഏത് സമൂഹമാദ്ധ്യമ പ്ളാറ്റ്‌ഫോമിലായാലും സ്വകാര്യത പരമാവധി സംരക്ഷിക്കുന്ന പ്രൈവസി സെറ്റിംഗ്‌സ് നൽകുക. ചിത്രങ്ങൾ ആർക്കെല്ലാം കാണാം എന്ന് തീരുമാനിക്കുക. അതുവഴി അവ ആരെങ്കിലും ദുരുപയോഗം ചെയ്യുന്നത് തടയാനാകും. ഒരു ചിത്രം പബ്ളിക്കായി ഷെയർ ചെയ്യും മുൻപ് അത് മറ്റൊരാൾക്ക് സേവ് ചെയ്യാമെന്നും എഡിറ്റ് ചെയ്യപ്പെടാമെന്നുമെല്ലാം മനസിലാക്കി വേണം ചെയ്യാൻ. അപ്‌ലോഡ് ചെയ്യും മുൻപ് ചിത്രത്തിന്റെ ഒറിജിനൽ ബാക്ക്‌അപ്പ് ആയി സേവ് ചെയ്‌ത് വയ്‌ക്കുകയും വേണം. ഇത് ഭാവിയിൽ പ്രശ്‌നങ്ങളൊഴിവാക്കാൻ സഹായിക്കും.

TAGS: AI TOOLS, NANO BANANA, AI SAREE
അപ്ഡേറ്റായിരിക്കാം ദിവസവും
ഒരു ദിവസത്തെ പ്രധാന സംഭവങ്ങൾ നിങ്ങളുടെ ഇൻബോക്സിൽ
KERALA KAUMUDI EPAPER
Kaumudi Salt & Pepper
TRENDING IN NEWS 360
PHOTO GALLERY
TRENDING IN NEWS 360
X
Lorem ipsum dolor sit amet
consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat.
We respect your privacy. Your information is safe and will never be shared.