2026 ஆம் ஆண்டின் தொடக்கத்தில், deepfake தொழில்நுட்பம் இலங்கையில் வாழும் சாதாரண மக்களுக்கு தினசரி கவலையாக மாறியுள்ளது. முன்பு Photoshop போன்ற மென்பொருள்களில் மணிக்கணக்கில் திறமையான திருத்தம் தேவைப்பட்ட வேலை, இன்று வெறும் சில வார்த்தைகளை AI கருவிக்கு கொடுத்தால் நொடிகளில் முடிந்துவிடுகிறது. ஒரு பெண்ணின் புகைப்படம், இளம் பெண்ணின் படம், அல்லது குழந்தையின் அப்பாவி படம் கூட – இவற்றை அனுமதியின்றி வெளிப்படையான அல்லது அவமானகரமான உள்ளடக்கமாக மாற்ற முடிகிறது. முடிவு விரைவாக இணையத்தில் பரவுகிறது. பாதிக்கப்பட்டவர் – பொதுவாக பெண் அல்லது பெண் குழந்தை – குற்றம் சாட்டப்படுகிறார், அதே நேரம் குற்றவாளி பின்னால் ஒளிந்து கொள்கிறார், தொழில்நுட்பமே ஆராய்ச்சியில் இருந்து தப்பிக்கிறது.
Read Related Content – இலங்கையில் கடையில் பெண்களின் Privacy மீறல்: பொது இடங்களில் பெண்களின் பாதுகாப்பு
ஒரு சராசரி குடிமகனின் பார்வையில் – பெற்றோர், ஆசிரியர், கடை உரிமையாளர், அல்லது பல்கலைக்கழக மாணவர் – இந்த சம்பவங்கள் மிகவும் அநீதியாக உணர்கின்றன. நாம் ஒரு புகைப்படம் அல்லது வீடியோவைப் பார்க்கும்போது, deepfakes இருப்பதை அறிந்திருந்தாலும் கூட, நம் கண்களை இயல்பாகவே நம்புகிறோம். இலங்கை போன்ற சமூகத்தில், நற்பெயர் மற்றும் குடும்ப மரியாதை பெரிய எடை கொண்டவை, சேதம் மாற்ற முடியாததாக இருக்கலாம். வேலைகள் இழக்கப்படுகின்றன, உறவுகள் உடைகின்றன, மன ஆரோக்கியம் பாதிக்கப்படுகிறது, தீவிர நிகழ்வுகளில் வாழ்க்கைகள் அழிக்கப்படுகின்றன. ஆனால் உரையாடல் அடிக்கடி “அவள் ஏன் அந்த படத்தை இணையத்தில் போட்டாள்?” என்பதற்கு மாறுகிறது, “இந்த தீங்கு விளைவிக்கும் கருவி ஏன் அதை உருவாக்க அனுமதிக்கப்பட்டது?” என்பதற்கு அல்ல.
பழைய திருத்த கருவிகளில் இருந்து உடனடி AI டீப்ஃபேக்குகளுக்கு மாற்றம்
ஒரு தசாப்தத்திற்கு முன்பு, பழிவாங்கும் ஆபாச படங்கள் அல்லது போலி படங்கள் தொழில்நுட்ப திறமை மற்றும் நேரம் தேவைப்பட்டன. Photoshop அறிவு உள்ள யாரேனும் முகங்களை மாற்றலாம் அல்லது உடல்களை மாற்றலாம், ஆனால் அது கண்டுபிடிக்கக்கூடியது மற்றும் பரவல் குறைவு. இன்று, பொதுவில் கிடைக்கும் AI மாதிரிகள் – சில பெரிய தொழில்நுட்ப நிறுவனங்களால் உருவாக்கப்பட்டவை – பத்து வார்த்தைகள் கூட குறைவான தூண்டுதல்களுடன் யதார்த்தமான deepfake-களை உருவாக்க முடியும். நிபுணத்துவம் தேவையில்லை, வெறும் இணைய அணுகல் மற்றும் தீங்கிழைக்கும் நோக்கம் மட்டும் போதும்.
சாதாரண மக்கள் வித்தியாசத்தை கவனிக்கிறார்கள். முன்பு, பாதிக்கப்பட்டவர்கள் சில நேரங்களில் metadata அல்லது நிபுணர் பகுப்பாய்வு மூலம் கையாளுதலை நிரூபிக்க முடிந்தது. இப்போது, AI உருவாக்கிய உள்ளடக்கம் மிகவும் நம்பத்தகுந்தது, தொழில்நுட்ப அறிவுள்ள பயனர்கள் கூட அதை கண்டறிய போராடுகிறார்கள். இலங்கையில், ஸ்மார்ட்போன் பரவல் அதிகமாக இருந்தாலும் டிஜிட்டல் கல்வியறிவு பரவலாக மாறுபடுகிறது, பலர் “உண்மையாக தோன்றும்” விஷயங்களை நம்புகிறார்கள். கிராமப்புற குடும்பங்கள், வயதான உறவினர்கள், அல்லது தொழில்நுட்பத்துடன் குறைவாக பரிச்சயமானவர்கள் அடிக்கடி மாற்றப்பட்ட படங்களை முக மதிப்பில் ஏற்றுக்கொள்கிறார்கள், விரைவான தீர்ப்புக்கு வழிவகுக்கிறது.
சமீபத்திய வழக்குகள் இந்த மாற்றத்தை முன்னிலைப்படுத்துகின்றன. உலகளவில் மற்றும் உள்நாட்டில், முன்னேற்றங்களை நிராகரிக்கும் பெண்கள் deepfake பழிவாங்கல் வீடியோக்களை எதிர்கொண்டுள்ளனர். கவலையூட்டும் வகையில், குழந்தைகளின் அப்பாவி புகைப்படங்கள் சமூக ஊடகங்களில் இருந்து தவறாக பயன்படுத்தப்பட்டுள்ளன. பள்ளி நிகழ்வு படங்களை பெருமையுடன் பகிர்ந்த பெற்றோர் இப்போது தயங்குகிறார்கள், அந்த படங்கள் தீங்கு விளைவிக்கும் ஏதாவதாக திரிக்கப்படலாம் என்று அஞ்சுகிறார்கள். உருவாக்கத்தின் வேகம் மற்றும் எளிமை என்னவென்றால், வெறுப்பு உள்ள எவரும் – முன்னாள் துணைவர்கள், ஆன்லைன் தொல்லை கொடுப்பவர்கள், அல்லது அந்நியர்கள் – நீண்டகால சேதத்தை ஏற்படுத்த முடியும்.
பாதிக்கப்பட்டவரை குறை கூறுதல்: இலங்கையில் கலாச்சார மற்றும் சமூக யதார்த்தம்
இலங்கையில், பழமைவாத சமூக விதிமுறைகள் தீங்கை பெருக்குகின்றன. நற்பெயர், குறிப்பாக பெண்கள் மற்றும் பெண் குழந்தைகளுக்கு, குடும்ப நிலைப்பாட்டுடன் நெருக்கமாக இணைக்கப்பட்டுள்ளது. ஒரு deepfake வெளிவரும்போது, சமூக எதிர்வினை அடிக்கடி பாதிக்கப்பட்டவர் மீது கவனம் செலுத்துகிறது: “அவள் புகைப்படங்களை போட்டிருக்கக் கூடாது”, “அவள் அதை தூண்டும் ஏதாவது செய்திருக்க வேண்டும்”, அல்லது “ஏன் அப்படி உடை அணிந்தாள்?” இந்த மனநிலை உண்மையான குற்றவாளிகளை புறக்கணிக்கிறது – தொழில்நுட்பத்தை தவறாக பயன்படுத்திய நபர் மற்றும் அதை செயல்படுத்திய அமைப்புகள்.
சராசரி நபரின் பார்வையில், இது அநீதியாக உணர்கிறது. பல பெண்கள் சமூக ஊடகங்களை அப்பாவியாக பயன்படுத்துகிறார்கள் – நண்பர்களுடன் இணைக்க, குடும்ப தருணங்களை பகிர, அல்லது சிறு வணிகங்களை உருவாக்க. ஒரு புகைப்படத்தை போடுவது எந்த வகையிலும் தனியுரிமை மீறலுக்கு அழைப்பு விடுக்கவில்லை. ஆனால் சமூகத்தின் விரைவான தீர்ப்பு பாதிக்கப்பட்டவர்களை தனிமைப்படுத்துகிறது, சில நேரங்களில் அவர்களை பொது வாழ்க்கையிலிருந்து விலக அல்லது இடம்பெயர கட்டாயப்படுத்துகிறது.
குழந்தைகள் குறிப்பாக பாதிப்புக்கு உள்ளாகிறார்கள். பிறந்தநாள் அல்லது பள்ளி விழாக்களில் இருந்து அப்பாவி படங்கள் அறுவடை செய்யப்பட்டு மாற்றப்படலாம். பெற்றோர்கள் உதவியற்றவர்களாக உணர்கிறார்கள்: எல்லா புகைப்படங்களையும் நீக்கி குழந்தைகளின் ஆன்லைன் இருப்பை குறைக்க வேண்டுமா, அல்லது வெளிப்பாடு அபாயத்தை எடுக்க வேண்டுமா? இளம் பாதிக்கப்பட்டவர்களின் உளவியல் சுமை – கொடுமைப்படுத்துதல், அவமானம், கவலை – ஆழமானது மற்றும் நீண்டகாலமானது.
தொழில்நுட்ப ஜாம்பவான்களின் பொறுப்பு: தடுப்பு சாத்தியம் போல் தோன்றினாலும் மெதுவான முன்னேற்றம்
தொழில்நுட்ப நிறுவனங்கள் AI மீது பேரரசுகளை கட்டியுள்ளன – நாட்கள் வேலையை நிமிடங்களில் திருத்த முடியும், கலை உருவாக்க முடியும், குறியீடு எழுத முடியும், அல்லது வீடியோக்களை உருவாக்க முடியும். இந்த அதிசயங்களை இயக்கும் அதே நுண்ணறிவு நிச்சயமாக தீங்கு விளைவிக்கும் தூண்டுதல்களை கண்டறிந்து தடுக்க முடியும்.
பல சாதாரண குடிமக்கள் கேட்கிறார்கள்: AI யதார்த்தமான படங்களை உருவாக்க சூழலை புரிந்து கொள்ள முடிந்தால், வெளிப்படையான சம்மதமற்ற கோரிக்கைகளை ஏன் மறுக்க முடியாது? இந்த கருவிகளை வழங்கும் தளங்கள் குறைந்தபட்ச தணிக்கைக்கு வாதிடுகின்றன, இலவச வெளிப்பாட்டை மேற்கோள் காட்டுகின்றன. X (முன்பு Twitter), இலகுவான உள்ளடக்க மிதமான அறியப்பட்டது, போட்டியாளர்களை விட பரந்த உருவாக்கத்தை அனுமதிக்கிறது. இது திறந்த உரையாடலுடன் இணைந்திருந்தாலும், இது தீங்கு விளைவிக்கும் deepfake-களின் விரைவான பரவலை செயல்படுத்துகிறது.
இலங்கை போன்ற நாடுகளில், பெரும்பாலான பயனர்கள் ஆழமாக தொழில்நுட்ப கல்வியறிவு இல்லாதவர்கள், கட்டுப்பாடற்ற கருவிகள் குறிப்பாக அபாயகரமானதாக உணர்கின்றன. இங்குள்ள மக்கள் அடிக்கடி மோசடிகள் அல்லது போலிகளை பற்றி சேதம் செய்யப்பட்ட பிறகு கற்றுக்கொள்கிறார்கள். வலுவான இயல்புநிலை பாதுகாப்புகள் – உண்மையான நபர்களின் வெளிப்படையான deepfake-களை தடுத்தல், சம்மத சரிபார்ப்பு தேவைப்படுத்துதல், அல்லது அடையாளம் காணக்கூடிய முகங்களின் உருவாக்கத்தை கட்டுப்படுத்துதல் – படைப்பாற்றலை முழுமையாக தணிக்கை செய்யாமல் அதிக தீங்கை தடுக்க முடியும்.
சில நிறுவனங்கள் பொது கூக்குரலுக்கு பிறகு கட்டுப்பாடுகளை சேர்த்துள்ளன, ஆனால் முன்னேற்றம் எதிர்வினையாக உணர்கிறது. பிரபலங்கள் மற்றும் சாதாரண மக்களின் சம்மதமற்ற படங்களை உருவாக்கும் AI கருவிகள் சம்பந்தப்பட்ட சமீபத்திய சர்ச்சைகள் வடிவத்தை காட்டுகின்றன: கோபம், தற்காலிக தடைகள், பின்னர் அமைதியான மீள்தொடக்கம். சராசரி பயனர்கள் நெருக்கடி பதிலை அல்ல, முன்கூட்டியே நடவடிக்கைகளை விரும்புகிறார்கள்.
கல்வி மற்றும் ஆரம்ப மதிப்புகளின் பங்கு
தொழில்நுட்பம் மட்டும் மனித பிரச்சனையை தீர்க்க முடியாது. நோய்வாய்ப்பட்ட மனம் கொண்ட நபர்கள் தீங்கு செய்ய வழிகளை தேடுவார்கள், ஆனால் சமூக அணுகுமுறைகள் அவர்கள் எவ்வளவு சேதம் ஏற்படுத்துகிறார்கள் என்பதை வடிவமைக்கின்றன. பெற்றோர்கள், பள்ளிகள், மற்றும் சமூகங்கள் தனியுரிமை மற்றும் சம்மதத்திற்கான மரியாதையை குழந்தைப் பருவத்திலிருந்தே கற்பிக்க வேண்டும் – மகன்கள் மற்றும் மகள்கள் இருவருக்கும்.
இலங்கை வீடுகளில், ஆன்லைன் நடத்தை பற்றிய உரையாடல்கள் அடிக்கடி எச்சரிக்கையில் கவனம் செலுத்துகின்றன: “அதிகமாக போடாதே”, “யாருடன் பேசுகிறாய் என்பதில் கவனமாக இரு”. ஆனால் நாம் இரக்கத்தையும் கற்பிக்க வேண்டும்: மற்றொரு நபரின் புகைப்படம் அனுமதியின்றி மாற்ற அல்லது பகிர உங்களுடையதல்ல. யாரேனும் பொதுவாக பகிர்ந்தால் அவர்கள் கண்ணியத்தை இழக்கிறார்கள் என்று அர்த்தமல்ல.
பள்ளிகள் பாடத்திட்டத்தில் டிஜிட்டல் நெறிமுறைகளை சேர்க்கலாம் – deepfakes, சம்மதம், மற்றும் தவறான பயன்பாட்டின் விளைவுகளை விளக்குதல். சிங்கள மற்றும் தமிழில் சமூக விழிப்புணர்வு பிரச்சாரங்கள், எளிய உதாரணங்களைப் பயன்படுத்தி, குறைவான தொழில்நுட்ப அறிவுள்ள பெரியவர்களுக்கு போலிகளை அடையாளம் காண மற்றும் பாதிக்கப்பட்டவர்களை தீர்ப்பளிப்பதற்கு பதிலாக ஆதரிக்க உதவும்.
பாதுகாப்பான டிஜிட்டல் எதிர்காலத்தை நோக்கி
Deepfakes நாம் ஆன்லைனில் பார்ப்பதில் நம்பிக்கைக்கு சவால் விடுகின்றன. 2026 இல், சாதாரண இலங்கையர்கள் இதை கவனமாக வழிநடத்துகிறார்கள் – சமூக ஊடகங்களின் நன்மைகளை அனுபவித்து அதே நேரத்தில் அதன் அபாயங்களை அஞ்சுகிறார்கள். பெண்கள் நம்பிக்கையுடன் போட தயங்குகிறார்கள், பெற்றோர்கள் குழந்தைகளின் புகைப்படங்களை கட்டுப்படுத்துகிறார்கள், குடும்பங்கள் நற்பெயரைப் பற்றி கவலைப்படுகிறார்கள்.
தீர்வுகளுக்கு சமநிலை தேவை: தொழில்நுட்ப நிறுவனங்கள் வலுவான இயல்புநிலை பாதுகாப்புகளை செயல்படுத்துதல், அரசாங்கங்கள் சம்மதமற்ற deepfake-களுக்கு எதிராக சட்டங்களை அமல்படுத்துதல், மற்றும் சமூகம் பாதிக்கப்பட்டவரை குறை கூறுவதிலிருந்து குற்றவாளி பொறுப்புக்கு மாறுதல்.
இறுதியில், தொழில்நுட்பம் சக்தியளிக்க வேண்டும், ஆபத்துக்கு உள்ளாக்கக் கூடாது. ஒரு பெண் குழந்தையின் அப்பாவி புகைப்படம் அந்நியரின் தூண்டுதலால் திரிக்கப்படும்போது, இழப்பு அனைவரையும் பாதிக்கிறது – நம்பிக்கை அரிக்கிறது, பங்கேற்பு குறைகிறது, சமூகம் விலை செலுத்துகிறது. சிறந்த பாதுகாப்புகளை கோரி, ஆரம்பத்தில் மரியாதையை கற்பித்து, பாதிக்கப்பட்டவர்களை கேள்வியின்றி ஆதரிப்பதன் மூலம், தனியுரிமை மற்றும் கண்ணியம் அப்படியே இருக்கும் டிஜிட்டல் இடத்தை உருவாக்க முடியும்.
சராசரி குடிமக்களாக, நாம் பயமின்றி முன்னேற்றத்தை விரும்புகிறோம். AI இன் சாத்தியம் உற்சாகமானது, ஆனால் அது மனித எல்லைகளை மதிக்கும்போது மட்டுமே. எதிர்காலம் கட்டுப்பாடற்ற சக்தியை விட பொறுப்பை தேர்ந்தெடுப்பதைப் பொறுத்தது. தொழில்நுட்பத்தின் முன்னேற்றம் நமக்கு எல்லா வசதிகளையும் தந்தாலும், மனித மதிப்புகளை மீறும்போது அது நமக்கு எதிராக மாறுகிறது என்பதை நாம் புரிந்து கொள்ள வேண்டும். பொறுப்புணர்வுடன் செயல்படும் தொழில்நுட்பமே நமது எதிர்காலத்தை பாதுகாப்பானதாக மாற்ற முடியும்.
குறிப்பு: இந்த கட்டுரை 2026 ஜனவரி வரையிலான சமீபத்திய தகவல்களின் அடிப்படையில் எழுதப்பட்டுள்ளது. டிஜிட்டல் பாதுகாப்பு பற்றிய மேலதிக தகவல்களுக்கு அதிகாரப்பூர்வ ஆதாரங்களை பின்பற்றவும்.
Read Related Content – Smartphone அடிமைத்தனம் – தூக்கமும் மன ஆரோக்கியமும் எப்படி பாதிக்கப்படுகின்றன?
