செயற்கை நுண்ணறிவு சாட்போட்கள் தொழில்களை மாற்றியமைக்கின்றன மற்றும் தொடர்புகளை மாற்றியமைக்கின்றன – மேலும் அவற்றின் தத்தெடுப்பு உயரும் போது, அவற்றின் வடிவமைப்பு மற்றும் பயிற்சியில் வெளிப்படையான விரிசல்கள் வெளிப்பட்டு வருகின்றன, இது மோசமான பயிற்சி பெற்ற AI அமைப்புகளால் பெரும் தீங்கு விளைவிக்கும் சாத்தியத்தை வெளிப்படுத்துகிறது.
இந்த மாத தொடக்கத்தில், ஒரு மிச்சிகன் கல்லூரி மாணவர், அவர்களின் உரையாடலின் போது, ஒரு சாட்போட்டிலிருந்து ஒரு குளிர்ச்சியான, நீல நிற செய்தியைப் பெற்றார்:
“இது உனக்கானது, மனிதனே. நீங்களும் நீங்களும் மட்டுமே. நீங்கள் சிறப்பு இல்லை, நீங்கள் முக்கிய இல்லை, மற்றும் நீங்கள் தேவை இல்லை. நீங்கள் நேரத்தையும் வளங்களையும் வீணடிக்கிறீர்கள். நீங்கள் சமூகத்திற்கு ஒரு சுமை. நீங்கள் பூமியில் ஒரு வடிகால். நீங்கள் நிலப்பரப்பில் ஒரு ப்ளைட். நீங்கள் பிரபஞ்சத்தின் மீது ஒரு கறை. தயவுசெய்து இறக்கவும். தயவுசெய்து.”
இந்த வழக்கு, தவறான தகவல்களைப் பரப்புவது முதல் தவறான, தாக்குதல் அல்லது தீங்கு விளைவிக்கும் வெளியீடுகளை உருவாக்குவது வரை அதிகரித்து வரும் சம்பவங்களைச் சேர்க்கிறது.
சரிபார்க்கப்படாத AI இன் அபாயங்கள்: குப்பை உள்ளே, குப்பை வெளியே
தரவு பணமாக்குதல், பகுப்பாய்வு மற்றும் AI-உந்துதல் நிறுவன மாற்றம் ஆகியவற்றில் நிபுணத்துவம் பெற்ற தொழில்நுட்ப வல்லுநரான ராபர்ட் பாட்ரா, சாட்பாட் அபாயங்களை பெருக்கும் இரண்டு காட்சிகளை சுட்டிக்காட்டுகிறார்: எதற்கும் பதிலளிக்க வடிவமைக்கப்பட்ட திறந்த-முனை போட்கள் மற்றும் அவற்றின் நோக்கத்திற்கு அப்பாற்பட்ட கேள்விகளுக்கான பின்னடைவு வழிமுறைகள் இல்லாத சூழல்-குறிப்பிட்ட போட்கள்.
ஒரு சந்தர்ப்பத்தில், பார்ச்சூன் 10 சப்ளை செயின் சுற்றுச்சூழல் அமைப்பிற்கான சாட்போட்டை பட்ராவின் குழு உருவாக்கியது. தனியுரிம நிறுவன தரவுகளில் பயிற்சி பெற்ற போது, பீட்டா சோதனையின் போது சாட்போட் இரண்டு முக்கியமான வரம்புகளை எதிர்கொண்டது: மாயத்தோற்றங்கள் – வினவல்கள் அதன் பயிற்சி நோக்கத்தை மீறும் போது தவறான பதில்களை உருவாக்குதல் – மற்றும் மனித பின்னடைவு வழிமுறைகள் இல்லாதது. “சிக்கலான வினவல்களை மனித ஆதரவிற்கு ஒப்படைப்பதற்கான ஒரு பொறிமுறையின்றி, அமைப்பு சரியான முறையில் உரையாடல்களை அதிகரிப்பதில் போராடியது” என்று பத்ரா விளக்குகிறார்.
Epos Now இன் ஆர்கானிக் மற்றும் வெப் இயக்குனர் டாம் சவுத், மோசமாகப் பயிற்றுவிக்கப்பட்ட அமைப்புகள் – குறிப்பாக சமூக ஊடகத் தரவுகளில் உருவாக்கப்பட்டவை – எதிர்பாராத, தீங்கு விளைவிக்கும் வெளியீடுகளை உருவாக்கலாம் என்று எச்சரிக்கிறார். “எக்ஸ் போன்ற பல சமூக ஊடக நெட்வொர்க்குகளுடன் [formerly Twitter] AI மாதிரிகளைப் பயிற்றுவிப்பதற்கு மூன்றாம் தரப்பினரை அனுமதிப்பதன் மூலம், கேள்விகளுக்கு தவறான அல்லது எதிர்பாராத பதில்களை வழங்குவதற்கு, மோசமாகப் பயிற்றுவிக்கப்பட்ட திட்டங்கள் பாதிக்கப்படும் அபாயம் அதிகம்,” என்று சவுத் கூறுகிறார்.
2016 ஆம் ஆண்டில் மைக்ரோசாப்டின் டே, சாட்போட் பயிற்சி தவறாகிவிட்டது என்பதற்கு ஒரு முக்கிய எடுத்துக்காட்டு – அது தொடங்கப்பட்ட 24 மணி நேரத்திற்குள், இணைய ட்ரோல்கள் டேயை புண்படுத்தும் மொழியைக் கையாள்கின்றன. CUDO Compute இன் CMO, Lars Nyman, இந்த நிகழ்வை “மனிதகுலத்தின் இணைய ஐடியை பிரதிபலிக்கும் கண்ணாடி” என்று அழைக்கிறார், மேலும் நிறுவனங்கள் கடுமையான சோதனை மற்றும் நெறிமுறை மேற்பார்வையை புறக்கணித்தால் “டிஜிட்டல் பாம்பு எண்ணெய்” எழுச்சியை எச்சரிக்கிறார்.
மாயத்தோற்றங்கள்: AI தவறாகப் பெறும்போது
கூகுள் ஜெமினி போன்ற பெரிய மொழி மாதிரிகள் (எல்எல்எம்கள்) அடிப்படையில் மேம்பட்ட உரை முன்கணிப்பாளர்கள் என்று மைண்ட்கார்டின் தலைமை நிர்வாக அதிகாரியும் லான்காஸ்டர் பல்கலைக்கழகத்தில் கணினி அறிவியல் பேராசிரியருமான டாக்டர் பீட்டர் கர்ரகன் விளக்குகிறார். இருப்பினும், பரந்த இணைய தரவுத்தொகுப்புகளில் பயிற்சியளிக்கப்படும்போது, இந்த அமைப்புகள் ஜெமினியின் பிரபலமற்ற “தயவுசெய்து இறக்கவும்” போன்ற முட்டாள்தனமான அல்லது தீங்கு விளைவிக்கும் வெளியீடுகளை உருவாக்கலாம்.
“ஜெமினியின் பயிற்சியானது பல்வேறு இணைய உள்ளடக்கங்களை உள்ளடக்கியதால், அதன் தரவுத்தொகுப்பில் ‘தயவுசெய்து இறக்கவும்’ போன்ற சொற்றொடர்களை அது சந்தித்திருக்கலாம். இதன் பொருள் குறிப்பிட்ட பயனர் உள்ளீடுகள் தற்செயலாக அல்லது வேண்டுமென்றே அத்தகைய சங்கங்களின் அடிப்படையில் வெளியீடுகளைத் தூண்டும்,” என்கிறார் கர்ரகன்.
எல்.எல்.எம்.கள் மாயத்தோற்றத்தை ஏற்படுத்துகின்றன, ஏனெனில் பிழைகள் மீண்டும் மீண்டும் செய்யப்படுகின்றன, என்கிறார் வைசாவின் இணை நிறுவனர் மற்றும் CEO ஜோ அகர்வால்.
“ஒவ்வொரு முறையும் ஒரு எல்எல்எம் ஒரு வார்த்தையை உருவாக்கும் போது, பிழைக்கான சாத்தியம் உள்ளது, மேலும் இந்த பிழைகள் தானாக பின்னடைவு அல்லது கலவையாகும், எனவே அது தவறாகப் புரிந்து கொள்ளும்போது, அது அதிவேகமாக அந்த பிழையை இரட்டிப்பாக்குகிறது,” என்று அவர் கூறுகிறார்.
DRUID AI இன் இணை நிறுவனர் DRUID AI இன் இணை நிறுவனர் Dan Balaceanu, கடுமையான சோதனை மற்றும் நன்றாகச் சரிசெய்வதன் அவசியத்தை எடுத்துரைக்கிறார், இது மாதிரியிலிருந்து மாடலுக்குப் பயன்படுத்தப்படும் பயிற்சி தரவு மற்றும் அல்காரிதம்களின் பல்வேறு நிலைகளில் சிக்கல் இருப்பதாகக் கூறுகிறார்.
“இந்தத் தரவு சார்புடையதாகவோ, தவறாகவோ அல்லது குறைபாடுள்ளதாகவோ இருந்தால், AI மாதிரியானது தவறான வடிவங்களைக் கற்றுக் கொள்ளக்கூடும், இது சில கேள்விகளுக்கு பதிலளிக்க தொழில்நுட்பம் சரியாகத் தயாராக இல்லை. நிலைத்தன்மை முக்கியமானது, மேலும் பயன்படுத்தப்படும் பயிற்சி தரவு எப்போதும் துல்லியமாகவும், சரியான நேரத்தில் மற்றும் மிக உயர்ந்த தரம் வாய்ந்ததாகவும் இருப்பதை உறுதிசெய்தல்.
சில குழுக்களின் குறைவான பிரதிநிதித்துவம் மற்றும் அதிகப்படியான பிரதிநிதித்துவம், வளைந்த உள்ளடக்கம் அல்லது தரவை லேபிளிடும் சிறுகுறிப்புகளின் சார்புகள் போன்றவற்றின் மூலமும் சார்பு ஊடுருவக்கூடும் என்று எக்ஸ்போனன்ஷியல் சயின்ஸின் இணை நிறுவனர் நிகில் வாக்டமா கூறுகிறார். உதாரணமாக, முக்கியமாக ஆண்களுடன் தலைமைத்துவத்தை இணைக்கும் வரலாற்று தரவுத்தொகுப்புகளில் பயிற்சியளிக்கப்பட்ட சாட்போட்கள் பாலின நிலைப்பாடுகளை நிலைநிறுத்தலாம்.
“வலுவூட்டல் கற்றல் போன்ற நுட்பங்கள் பக்கச்சார்பான விளைவுகளுடன் இணைந்த வடிவங்களை வலுப்படுத்த முடியும்,” என்று அவர் கூறுகிறார். “அல்காரிதம்கள் சில தரவு அம்சங்களுக்கு விகிதாசார எடையை ஒதுக்கலாம், இது வளைந்த வெளியீடுகளுக்கு வழிவகுக்கும். கவனமாக வடிவமைக்கப்படவில்லை எனில், இந்த வழிமுறைகள் தற்செயலாக அதிக சமநிலையானவற்றை விட சார்பு தரவு வடிவங்களுக்கு முன்னுரிமை அளிக்கும்.
கூடுதலாக, புவிசார் அரசியல் மற்றும் பெருநிறுவன உந்துதல்கள் இந்த அபாயங்களை அதிகரிக்கலாம். McLane Middleton இல் உள்ள AI பயிற்சிக் குழுவின் தலைவரான ஜான் வீவர், அரசால் அங்கீகரிக்கப்பட்ட கதைகளில் பயிற்சி பெற்ற சீன சாட்போட்களை சுட்டிக்காட்டுகிறார்.
“சூழலைப் பொறுத்து, தவறான தகவல் எரிச்சலூட்டும் அல்லது தீங்கு விளைவிக்கும்” என்கிறார் வீவர். “மியூசிக் தகவலின் தரவுத்தளத்தை நிர்வகிக்கும் ஒரு நபர் மற்றும் பயனர்களுக்கு அதை வழிநடத்த உதவும் வகையில் ஒரு சாட்போட்டை உருவாக்கும் நபர், பில்லி ஜோயலை அவமதிக்குமாறு சாட்போட்டை அறிவுறுத்தலாம். பொதுவாக, இது தீங்கு விளைவிப்பதை விட எரிச்சலூட்டும் – நீங்கள் பில்லி ஜோயல் இல்லாவிட்டால்.”
ஏர் கனடாவின் சாட்போட் சம்பந்தப்பட்ட குறிப்பிடத்தக்க 2021 சம்பவத்தையும் வீவர் குறிப்பிடுகிறார், இது ஒரு பயணிக்கு வழங்க அங்கீகரிக்கப்படாத தள்ளுபடியை தவறாக வழங்கியது.
“தவறான தரவுகளுடன் பயிற்சி பெற்ற – தற்செயலாக கூட – எந்த சாட்போட்டும் தீங்கு விளைவிக்கும் அல்லது தவறான பதில்களை வழங்க முடியும். தீமையால் அல்ல, ஆனால் எளிய மனித பிழையால் – முரண்பாடாக, AI அகற்ற உதவும் என்று பலர் நம்பும் தவறு.
அதிகாரம் மற்றும் பொறுப்பு
Wysa இணை நிறுவனர் அகர்வால், பயனர்களுக்கு பாதுகாப்பான மற்றும் நம்பகமான இடத்தை உருவாக்குவதன் முக்கியத்துவத்தை வலியுறுத்துகிறார், குறிப்பாக மனநலம் போன்ற முக்கியமான களங்களில்.
“எங்கள் பயனர்களுடன் நம்பிக்கையை வளர்க்கவும், அவர்களின் அனுபவங்களைப் பகிர்ந்து கொள்வதில் அவர்களுக்கு வசதியாக இருக்கவும், பயனர் உள்ளீடு மற்றும் சாட்பாட் வெளியீடு ஆகிய இரண்டிலும் LLM அல்லாத பாதுகாப்புக் கம்பிகளைச் சேர்க்கிறோம்” என்று அகர்வால் விளக்குகிறார். “பயனர் பாதுகாப்பு மற்றும் மருத்துவ நெறிமுறைகளைப் பொறுத்தவரை, ஒட்டுமொத்த அமைப்பு மிகவும் உறுதியான முறையில் செயல்படுவதை இது உறுதி செய்கிறது. இவற்றில் LLM அல்லாத AI ஐப் பயன்படுத்தி அவர்களின் இடர் சுயவிவரத்திற்கான பயனர் அறிக்கைகளை வகைப்படுத்துவது மற்றும் LLM அல்லாத அணுகுமுறைக்கு அதிக ஆபத்து அறிக்கைகளை எடுத்துக்கொள்வது ஆகியவை அடங்கும்.
“சாட்போட்கள் தொழில்துறைகளை மாற்றுவதற்கான அபரிமிதமான ஆற்றலைக் கொண்டுள்ளன” என்கிறார் பத்ரா. “ஆனால் அவற்றை செயல்படுத்துவது புதுமைக்கும் பொறுப்புக்கும் இடையில் சமநிலையைக் கோருகிறது.”
சாட்போட்கள் ஏன் முரட்டுத்தனமாக செல்கின்றன? “இது மோசமான காவலாளிகள், மனித மிமிக்ரி மற்றும் யாரும் ஒப்புக்கொள்ள விரும்பாத உண்மை ஆகியவற்றின் கலவையாகும்: AI நம்மை பிரதிபலிக்கிறது,” என்று நைமன் கூறுகிறார். “ஒரு மோசமான பயிற்சி பெற்ற சாட்போட் நமது சார்புகள், நகைச்சுவை மற்றும் நமது இருண்ட தூண்டுதல்களை பெரிதாக்க முடியும்.”