தேர்தல் தவறான தகவல்களை பரப்பும் AI டீப்ஃபேக்குகளை எப்படி கண்டறிவது

மாநில தேர்தல்கள்

கடன்: Pixabay/CC0 பொது டொமைன்

ChatGPT போன்ற ஜெனரேட்டிவ் AI அமைப்புகள், தூண்டுதல்களுக்கு பதிலளிக்கும் வகையில் எழுதப்பட்ட, காட்சி அல்லது ஆடியோ உள்ளடக்கத்தை உருவாக்க பெரிய தரவுத்தொகுப்புகளில் பயிற்சியளிக்கப்படுகின்றன. உண்மையான படங்களை கொடுக்கும்போது, ​​சில அல்காரிதம்கள் டீப்ஃபேக்குகள் எனப்படும் போலி புகைப்படங்கள் மற்றும் வீடியோக்களை உருவாக்கலாம்.

உருவாக்கும் செயற்கை நுண்ணறிவு (AI) அமைப்புகளுடன் உருவாக்கப்பட்ட உள்ளடக்கம் 2024 ஜனாதிபதித் தேர்தலில் பங்கு வகிக்கிறது. இந்தக் கருவிகள் பாதிப்பில்லாமல் பயன்படுத்தப்படலாம் என்றாலும், மோசமான நடிகர்கள் முன்பை விட விரைவாகவும் யதார்த்தமாகவும் தவறான தகவல்களை உருவாக்க அனுமதிக்கிறார்கள், இது வாக்காளர்கள் மீது அவர்களின் செல்வாக்கை அதிகரிக்கும்.

உள்நாட்டு மற்றும் வெளிநாட்டு எதிரிகள் ஒரு அரசியல்வாதியின் மேடை அல்லது மருத்துவர் அவர்களின் பேச்சுகளைப் பற்றிய தவறான தகவல்களைப் பரப்புவதற்கு டீப்ஃபேக்குகள் மற்றும் பிற வகை செயற்கை நுண்ணறிவைப் பயன்படுத்தலாம் என்று கார்னகி மெலன் பல்கலைக்கழகத்தின் மென்பொருள் பொறியியல் நிறுவனத்தின் முதன்மை ஆராய்ச்சியாளரும் அதன் ஹெய்ன்ஸ் காலேஜ் ஆஃப் இன்ஃபர்மேஷன் சிஸ்டம்ஸின் துணைப் பேராசிரியருமான தாமஸ் ஸ்கேன்லன் கூறினார். மற்றும் பொதுக் கொள்கை.

“டீப்ஃபேக்குகளின் கவலை என்னவென்றால், அவை எவ்வளவு நம்பத்தகுந்தவையாகவும், உண்மையான காட்சிகளிலிருந்து அவற்றைக் கண்டறிவது எவ்வளவு சிக்கலானதாகவும் இருக்கிறது” என்று ஸ்கேன்லான் கூறினார்.

அசோசியேட்டட் பிரஸ் கருத்துப்படி, வாக்காளர்கள் AI-உருவாக்கிய உள்ளடக்கத்தை அதிகம் பார்த்துள்ளனர் – டொனால்ட் டிரம்ப் சிங்கத்தின் மீது சவாரி செய்வது போன்ற புகைப்படம் போன்றவற்றைப் பார்த்துள்ளனர் – அசோசியேட்டட் பிரஸ் படி. இருப்பினும், தேர்தல் நாளிலோ அல்லது அதற்குச் சிறிது நேரத்திலோ வாக்காளர்கள் அதிக தீங்கு விளைவிக்கும் உள்ளடக்கத்திற்கு ஆளாக நேரிடும் என்று Scanlon கவலை கொண்டுள்ளது, அதாவது வாக்கெடுப்பு பணியாளர்கள் திறந்த வாக்களிக்கும் இடம் மூடப்பட்டதாகக் கூறும் வீடியோக்கள் போன்றவை.

இதுபோன்ற தவறான தகவல்கள், வாக்காளர்கள் வாக்களிப்பதைத் தடுக்கலாம், ஏனெனில் தவறான தகவல்களைத் திருத்துவதற்கு சிறிது நேரம் இருக்கும் என்று அவர் கூறினார். ஹெய்ன்ஸ் காலேஜ் ஆஃப் இன்ஃபர்மேஷன் சிஸ்டம்ஸ் அண்ட் பப்ளிக் பாலிசியில் உள்ள பல்கலைக்கழகத்தின் தொழில்நுட்பம் மற்றும் சமூகத்திற்கான பிளாக் சென்டரின் படி, ஒட்டுமொத்தமாக, AI உருவாக்கிய வஞ்சகம், நாட்டின் ஜனநாயக நிறுவனங்கள் மற்றும் தேர்ந்தெடுக்கப்பட்ட அதிகாரிகள் மீதான வாக்காளர்களின் நம்பிக்கையை மேலும் சிதைக்கக்கூடும்.

“மக்கள் தொடர்ந்து தகவல்களால் தாக்கப்படுகிறார்கள், அதை நுகர்வோர் தீர்மானிக்க வேண்டும்: அதன் மதிப்பு என்ன, ஆனால், அதில் அவர்களின் நம்பிக்கை என்ன? மேலும் தனிநபர்கள் போராடக்கூடிய இடம் இதுதான் என்று நான் நினைக்கிறேன்,” என்று ராண்டால் ட்ரெசியாக் கூறினார். , தகவல் பாதுகாப்புக் கொள்கை மற்றும் மேலாண்மை (MSISPM) திட்டத்தின் ஹெய்ன்ஸ் கல்லூரி மாஸ்டர் ஆஃப் சயின்ஸ் இயக்குநர்.






ஜெனரேட்டிவ் AI இல் பாய்ச்சல்கள் மற்றும் எல்லைகள்

பல ஆண்டுகளாக, அடோப் போட்டோஷாப் போன்ற கருவிகளைக் கொண்டு புகைப்படங்கள் மற்றும் வீடியோக்களைக் கையாளுவதன் மூலம் மக்கள் தவறான தகவல்களைப் பரப்புகிறார்கள், ஸ்கேன்லன் கூறினார். இந்த போலிகளை அடையாளம் காண்பது எளிது, மேலும் மோசமான நடிகர்கள் பெரிய அளவில் நகலெடுப்பது கடினம். எவ்வாறாயினும், உருவாக்கக்கூடிய AI அமைப்புகள், பயனர்களிடம் ஆடம்பரமான கணினிகள் அல்லது மென்பொருள் இல்லாவிட்டாலும், உள்ளடக்கத்தை விரைவாகவும் எளிதாகவும் உருவாக்க உதவுகிறது.

பல்வேறு காரணங்களுக்காக மக்கள் டீப்ஃபேக்குகளுக்கு விழுகிறார்கள் என்று ஹெய்ன்ஸ் கல்லூரியின் ஆசிரியர்கள் தெரிவித்தனர். பார்வையாளர் ஸ்மார்ட்ஃபோனைப் பயன்படுத்தினால், மோசமான செல் சேவையில் டீப்ஃபேக்கின் மோசமான தரத்தைக் குறை கூறுவதற்கான வாய்ப்புகள் அதிகம். ஒரு ஆழமான போலியானது பார்வையாளரிடம் ஏற்கனவே உள்ள நம்பிக்கையை எதிரொலித்தால்-உதாரணமாக, ஒரு அரசியல் வேட்பாளர் அந்த அறிக்கையை சித்தரிப்பார்-பார்ப்பவர் அதை ஆராய்வதற்கான வாய்ப்புகள் குறைவு.

பெரும்பாலானவர்களுக்கு தாங்கள் பார்க்கும் ஒவ்வொரு வீடியோவையும் உண்மையைச் சரிபார்க்க நேரமில்லை, அதாவது ஆழமான போலிகள் காலப்போக்கில் சந்தேகத்தை விதைத்து நம்பிக்கையை அழிக்கக்கூடும் என்று ஹெய்ன்ஸ் கல்லூரியின் தகவல் தொழில்நுட்பம் மற்றும் மேலாண்மை உதவிப் பேராசிரியரான அனன்யா சென் ஒரு அறிக்கையில் எழுதினார். வாக்கு எண்ணும் லைவ்ஸ்ட்ரீம்கள், வெளிப்படைத்தன்மையை அதிகரிக்கும் நோக்கில், ஆழமான போலிகளுக்குப் பயன்படுத்தப்படலாம் என்று அவர் கவலைப்படுகிறார்.

தவறான தகவல்கள் வெளிவந்தவுடன், அதைச் சரிசெய்து, ஜீனியை மீண்டும் பாட்டிலில் வைக்க வாய்ப்புகள் குறைவு.

தவறான தகவல்களை உருவாக்குவதற்கான முந்தைய வழிமுறைகளைப் போலன்றி, ஆன்லைன் சமூகங்களுக்கு ஏற்ப உருவாக்கப்பட்ட செய்திகளை அனுப்பவும் உருவாக்கக்கூடிய AI பயன்படுத்தப்படலாம் என்று ஹெய்ன்ஸ் கல்லூரியின் டிஜிட்டல் மீடியா மற்றும் சந்தைப்படுத்தல் பேராசிரியரான அரி லைட்மேன் கூறினார். சமூகத்தின் ஒரு உறுப்பினர் தற்செயலாக உள்ளடக்கத்தைப் பகிர்ந்தால், மற்றவர்கள் அதைப் பகிர்ந்த நபரை நம்புவதால் அதன் செய்தியை நம்பலாம்.

எதிரிகள் “நுகர்வோர் நடத்தை முறைகள் மற்றும் மக்கள் தொழில்நுட்பத்துடன் எவ்வாறு தொடர்பு கொள்கிறார்கள் என்பதைப் பார்க்கிறார்கள், அவர்களில் ஒருவர் தவறான தகவல்களின் வைரஸ் வெளியீட்டில் இறங்கக்கூடிய ஒரு தகவலைக் கிளிக் செய்வார்கள்” என்று லைட்மேன் கூறினார்.

செயற்கை நுண்ணறிவால் உருவாக்கப்பட்ட தவறான தகவல்களின் குற்றவாளிகளை அவிழ்ப்பது கடினம். படைப்பாளிகள் தங்கள் தடங்களை மறைக்க மெய்நிகர் தனியார் நெட்வொர்க்குகள் மற்றும் பிற வழிமுறைகளைப் பயன்படுத்தலாம். அமெரிக்காவுடன் விரோத உறவுகளைக் கொண்ட நாடுகள் இந்த தொழில்நுட்பத்தை ஆயுதமாக்கிக் கொள்ளலாம் என்று லைட்மேன் கூறினார், ஆனால் ரேடாரின் கீழ் செயல்படக்கூடிய தனிநபர்கள் மற்றும் பயங்கரவாதக் குழுக்களைப் பற்றியும் அவர் கவலைப்படுகிறார்.

வாக்காளர்கள் தெரிந்து கொள்ள வேண்டியது

மக்கள் தங்கள் உள்ளுணர்வை நம்ப வேண்டும் மற்றும் அவர்கள் டீப்ஃபேக் என்று நம்பும் வீடியோக்களை சரிபார்க்க முயற்சிக்க வேண்டும், ஸ்கேன்லான் கூறினார். “நீங்கள் ஒரு வீடியோவைப் பார்த்தால், அதன் நம்பகத்தன்மை குறித்து உங்களுக்கு சில சந்தேகங்கள் ஏற்படுகின்றன, அந்த சந்தேகத்தை நீங்கள் ஒப்புக் கொள்ள வேண்டும்,” என்று அவர் கூறினார்.

ஸ்கேன்லானின் கூற்றுப்படி, ஒரு வீடியோ டீப்ஃபேக்காக இருக்கலாம் என்பதற்கான சில அறிகுறிகள் இங்கே:

  • எடிட்டிங்கில் ஜம்ப் கட்ஸ்: இன்றைய AI அமைப்புகளால் ஒரு பார்வையில் இருந்து நீண்ட ஆழமான வீடியோக்களை உருவாக்க முடியவில்லை. வீடியோவின் கோணம் ஒவ்வொரு சில வினாடிகளுக்கும் மாறலாம் அல்லது பொருள் பல பக்கங்களில் இருந்து தொடர்ச்சியாகக் காட்டப்படலாம்.
  • ஒளியமைப்பில் முரண்பாடுகள்: டீப்ஃபேக் வீடியோக்களில் பெரும்பாலும் நிழல்கள் இருக்கும் –யதார்த்தமாக – ஒன்றுக்கு மேற்பட்ட திசைகளில் இருந்து வரும் அல்லது வீடியோவின் ஒரு பகுதி மட்டுமே இருக்கும். பெரும்பாலும், வீடியோவின் வெளிச்சம் ஒளிரும்.
  • பொருந்தாத எதிர்வினைகள்: நேரான முகத்துடன் அதிர்ச்சியூட்டும் விஷயத்தைச் சொல்லும் விஷயத்தை வீடியோ சித்தரிக்கலாம் அல்லது நேர்மாறாகவும் இருக்கலாம். வீடியோவில் வேறு நபர்கள் இருந்தால், அவர்களின் எதிர்வினைகள் பொருளின் செய்தி அல்லது தொனியுடன் பொருந்தாமல் போகலாம்.
  • தோல் தொனியில் முரண்பாடுகள் அல்லது முக சமச்சீரின்மை: பார்வையாளர்கள் பொருளின் தோல் தொனியில் குறிப்பிடத்தக்க வேறுபாடுகளைக் காணலாம், குறிப்பாக அவர்களின் கைகள் அல்லது கைகள் சட்டகத்தில் சேர்க்கப்பட்டால். பொருளுக்கு காதுகள் அல்லது கண்கள் ஒன்றுக்கொன்று பொருத்தமற்றதாக இருக்கலாம்.
  • கண்ணாடிகள் மற்றும் காதணிகளில் சிக்கல்கள்: பொருளில் இல்லாத அல்லது பொருந்தாத காதணிகள் அல்லது கண்ணாடிகள் பொருந்தாததை பார்வையாளர்கள் காணலாம்.

பிளாக் சென்டர், வாக்காளர்கள் அரசியல் பிரச்சாரத்தில் AI ஐ உருவாக்க உதவும் வழிகாட்டியை தொகுத்துள்ளது. AI ஐப் பயன்படுத்துவதைப் பற்றி வேட்பாளர்களிடம் கேள்விகளைக் கேட்கவும், வலுவான AI விதிமுறைகளை ஆதரிக்கும் தேர்ந்தெடுக்கப்பட்ட பிரதிநிதிகள் கடிதங்களை அனுப்பவும் வழிகாட்டி வாக்காளர்களை ஊக்குவிக்கிறது.

“ஒரு தகவலறிந்த வாக்காளர் தங்கள் முடிவெடுக்கும் செயல்முறைக்கு செல்லும் தகவல்களில் நம்பிக்கை வைத்திருக்க வேண்டிய அளவுக்கு நேரம் எடுக்க வேண்டும்,” Trzeciak கூறினார்.

சட்டமன்ற நிலப்பரப்பு

டீப்ஃபேக்குகளை ஒழுங்குபடுத்தும் விரிவான கூட்டாட்சி சட்டம் எதுவும் இல்லை, மேலும் AI அச்சுறுத்தல்களிலிருந்து தேர்தலைப் பாதுகாப்பதை நோக்கமாகக் கொண்ட பல மசோதாக்கள் காங்கிரஸில் ஸ்தம்பித்துள்ளன. சில மாநிலங்கள் தீங்கிழைக்கும் நோக்கங்களுக்காக டீப்ஃபேக்குகளை உருவாக்குவதை அல்லது பயன்படுத்துவதைத் தடைசெய்யும் சட்டங்களை இயற்றியுள்ளன, ஆனால் அவை அனைத்தும் தேர்தல் குறுக்கீடுகளுடன் வெளிப்படையாக தொடர்புடையவை அல்ல.

நீதிமன்றங்கள் தீங்கிழைக்கும் நோக்கத்தை நிரூபிக்கும் வரை, அரசியல் வேட்பாளர்களின் AI-உருவாக்கிய ஆள்மாறாட்டங்களைக் கொண்ட பிரச்சார விளம்பரங்களைப் பரப்புபவர்களுக்கு சிவில் அபராதம் விதிக்கும் மசோதாவை பென்சில்வேனியா மாநில செனட் அறிமுகப்படுத்தியுள்ளது. மசோதா இன்னும் வாக்கெடுப்புக்கு வரவில்லை.

டீப்ஃபேக்குகளின் பயன்பாட்டைக் கட்டுப்படுத்த தற்போதுள்ள சட்டங்கள் போதுமானதாக இல்லை என்று ஸ்கேன்லான் கூறினார். ஆனால், சைபர் கிரைம்களின் இருண்ட தன்மையானது எந்தவொரு கூட்டாட்சி ஒழுங்குமுறையையும் செயல்படுத்த கடினமாக இருக்கும் என்று அவர் கூறினார்.

“அமலாக்கமானது ஒரு தடுப்பாகச் செயல்படுவதற்கு அவ்வப்போது எல்லோரும் மற்றும் குழுக்களின் உதாரணங்களை உருவாக்குவது போல் இருக்கும்” என்று Scanlon கூறினார்.

விதிமுறைகளை நடைமுறைப்படுத்துவதற்கும் நடைமுறைப்படுத்துவதற்கும் அப்பால், லைட்மேன், நாட்டில் அரசியல் துருவமுனைப்பு மற்றும் தவறான தகவலை தீப்பிடிக்க அனுமதிக்கும் நிறுவனங்கள் மீதான சமூக நம்பிக்கையை குறைக்க வேண்டும் என்று கூறினார்.

“நாங்கள் பார்ப்பது அனைத்தும் கிண்டல் அல்லது முற்றிலும் தவறான பிரச்சாரம். மேலும் நாங்கள் ஒருவரையொருவர் நம்பவில்லை,” என்று அவர் கூறினார். “நம்பிக்கையை எவ்வாறு சிதைக்கிறது என்பதைப் பற்றிய சமூகப் புரிதலுக்கு நாம் திரும்பிச் செல்ல வேண்டும். அதைப் புரிந்து கொள்ள முடிந்தால், அதை மாற்றியமைக்க நடவடிக்கை எடுக்கலாம்.”

கார்னகி மெலன் பல்கலைக்கழகத்தால் வழங்கப்பட்டது

மேற்கோள்: தேர்தல் தவறான தகவல்களைப் பரப்பும் AI டீப்ஃபேக்குகளைக் கண்டறிவது எப்படி

இந்த ஆவணம் பதிப்புரிமைக்கு உட்பட்டது. தனிப்பட்ட ஆய்வு அல்லது ஆராய்ச்சியின் நோக்கத்திற்காக எந்தவொரு நியாயமான கையாளுதலைத் தவிர, எழுத்துப்பூர்வ அனுமதியின்றி எந்தப் பகுதியையும் மீண்டும் உருவாக்க முடியாது. உள்ளடக்கம் தகவல் நோக்கங்களுக்காக மட்டுமே வழங்கப்படுகிறது.

Leave a Comment