09p" />
டெக் பெஹிமோத் ஓபன்ஏஐ அதன் செயற்கை நுண்ணறிவு-இயங்கும் டிரான்ஸ்கிரிப்ஷன் கருவியான விஸ்பரை “மனித நிலை வலிமை மற்றும் துல்லியம்” அருகில் இருப்பதாகக் கூறியுள்ளது.
ஆனால் விஸ்பர் ஒரு பெரிய குறைபாட்டைக் கொண்டுள்ளது: இது ஒரு டஜன் மென்பொருள் பொறியாளர்கள், டெவலப்பர்கள் மற்றும் கல்வி ஆராய்ச்சியாளர்களின் நேர்காணல்களின்படி, உரை அல்லது முழு வாக்கியங்களையும் கூட உருவாக்க வாய்ப்புள்ளது. அந்த வல்லுநர்கள் கண்டுபிடித்த உரைகளில் சில – தொழில்துறையில் மாயத்தோற்றம் என்று அறியப்படுகிறது – இன வர்ணனை, வன்முறை சொல்லாட்சி மற்றும் கற்பனை மருத்துவ சிகிச்சைகள் கூட இருக்கலாம்.
நேர்காணல்களை மொழிபெயர்ப்பதற்கும் படியெடுப்பதற்கும், பிரபலமான நுகர்வோர் தொழில்நுட்பங்களில் உரையை உருவாக்குவதற்கும், வீடியோக்களுக்கான வசனங்களை உருவாக்குவதற்கும், உலகளாவிய தொழில்களில் விஸ்பர் பயன்படுத்தப்படுவதால், இதுபோன்ற கட்டுக்கதைகள் சிக்கலானவை என்று நிபுணர்கள் தெரிவித்தனர்.
மேலும், “அதிக ஆபத்துள்ள களங்களில்” கருவியைப் பயன்படுத்தக் கூடாது என்று OpenAI இன் எச்சரிக்கைகள் இருந்தபோதிலும், மருத்துவர்களுடனான நோயாளிகளின் ஆலோசனைகளைப் படியெடுக்க, விஸ்பர் அடிப்படையிலான கருவிகளைப் பயன்படுத்த மருத்துவ மையங்கள் அவசரம் காட்டுவதாக அவர்கள் கூறினர்.
பிரச்சனையின் முழு அளவைக் கண்டறிவது கடினம், ஆனால் ஆராய்ச்சியாளர்கள் மற்றும் பொறியாளர்கள் தங்கள் வேலையில் விஸ்பரின் மாயத்தோற்றங்களை அடிக்கடி சந்தித்ததாகக் கூறினர். உதாரணமாக, பொதுக் கூட்டங்கள் பற்றிய ஆய்வை நடத்தும் மிச்சிகன் பல்கலைக்கழக ஆராய்ச்சியாளர் ஒருவர், மாதிரியை மேம்படுத்த முயற்சிக்கும் முன், அவர் ஆய்வு செய்த ஒவ்வொரு 10 ஆடியோ டிரான்ஸ்கிரிப்ஷன்களிலும் 8ல் மாயத்தோற்றம் இருப்பதாகக் கூறினார்.
ஒரு இயந்திரக் கற்றல் பொறியாளர், அவர் ஆய்வு செய்த விஸ்பர் டிரான்ஸ்கிரிப்ஷன்களில் 100 மணிநேரத்திற்கு மேல் பாதியில் மாயத்தோற்றத்தை ஆரம்பத்தில் கண்டுபிடித்ததாகக் கூறினார். மூன்றாவது டெவலப்பர், விஸ்பருடன் அவர் உருவாக்கிய 26,000 டிரான்ஸ்கிரிப்ட்களில் கிட்டத்தட்ட எல்லாவற்றிலும் மாயத்தோற்றம் இருப்பதாகக் கூறினார்.
நன்கு பதிவுசெய்யப்பட்ட, குறுகிய ஆடியோ மாதிரிகளில் கூட சிக்கல்கள் நீடிக்கின்றன. கணினி விஞ்ஞானிகளின் சமீபத்திய ஆய்வில், அவர்கள் ஆய்வு செய்த 13,000 தெளிவான ஆடியோ துணுக்குகளில் 187 மாயத்தோற்றங்கள் கண்டறியப்பட்டன.
அந்த போக்கு மில்லியன் கணக்கான பதிவுகளில் பல்லாயிரக்கணக்கான தவறான டிரான்ஸ்கிரிப்ஷன்களுக்கு வழிவகுக்கும் என்று ஆராய்ச்சியாளர்கள் தெரிவித்தனர்.
இத்தகைய தவறுகள் “உண்மையில் கடுமையான விளைவுகளை” ஏற்படுத்தக்கூடும், குறிப்பாக மருத்துவமனை அமைப்புகளில், கடந்த ஆண்டு வரை பிடென் நிர்வாகத்திற்கான அறிவியல் மற்றும் தொழில்நுட்பக் கொள்கைக்கான வெள்ளை மாளிகை அலுவலகத்தை வழிநடத்திய அலோண்ட்ரா நெல்சன் கூறினார்.
“தவறான நோயறிதலை யாரும் விரும்பவில்லை” என்று நியூ ஜெர்சியின் பிரின்ஸ்டனில் உள்ள இன்ஸ்டிடியூட் ஃபார் அட்வான்ஸ்டு ஸ்டடி பேராசிரியரான நெல்சன் கூறினார். “உயர்ந்த பட்டி இருக்க வேண்டும்.”
காது கேளாதோர் மற்றும் காது கேளாதவர்களுக்கு மூடிய தலைப்பை உருவாக்கவும் விஸ்பர் பயன்படுத்தப்படுகிறது – தவறான டிரான்ஸ்கிரிப்ஷன்களுக்கு குறிப்பிட்ட ஆபத்தில் உள்ள மக்கள். காது கேளாதவர்கள் மற்றும் காது கேளாதவர்கள் புனைகதைகளை அடையாளம் காண வழியில்லாததால் தான் “இந்த மற்ற எல்லா உரைகளிலும் மறைக்கப்பட்டுள்ளது” என்று செவிடு மற்றும் கல்லுடெட் பல்கலைக்கழகத்தின் தொழில்நுட்ப அணுகல் திட்டத்தை இயக்கும் கிறிஸ்டியன் வோக்லர் கூறினார்.
சிக்கலைத் தீர்க்க OpenAI வலியுறுத்தியது
இத்தகைய மாயத்தோற்றங்களின் பரவலானது, வல்லுநர்கள், வழக்கறிஞர்கள் மற்றும் முன்னாள் OpenAI பணியாளர்கள், AI விதிமுறைகளைக் கருத்தில் கொள்ளுமாறு மத்திய அரசுக்கு அழைப்பு விடுக்க வழிவகுத்தது. குறைந்தபட்சம், OpenAI குறைபாட்டை நிவர்த்தி செய்ய வேண்டும் என்று அவர்கள் கூறினர்.
“நிறுவனம் இதற்கு முன்னுரிமை அளிக்கத் தயாராக இருந்தால், இது தீர்க்கக்கூடியதாகத் தெரிகிறது” என்று சான் பிரான்சிஸ்கோவை தளமாகக் கொண்ட ஆராய்ச்சி பொறியாளர் வில்லியம் சாண்டர்ஸ் கூறினார், அவர் பிப்ரவரியில் நிறுவனத்தின் திசையில் உள்ள கவலைகளால் OpenAI இலிருந்து வெளியேறினார். “நீங்கள் இதை வெளியே வைத்தால், அது என்ன செய்ய முடியும் என்பதில் மக்கள் அதிக நம்பிக்கை வைத்து, மற்ற எல்லா அமைப்புகளிலும் அதை ஒருங்கிணைத்தால் அது சிக்கலாகும்.”
ஓபன்ஏஐ செய்தித் தொடர்பாளர் கூறுகையில், நிறுவனம் மாயத்தோற்றங்களை எவ்வாறு குறைப்பது என்பதை நிறுவனம் தொடர்ந்து ஆய்வு செய்து, ஆராய்ச்சியாளர்களின் கண்டுபிடிப்புகளைப் பாராட்டுகிறது, மேலும் ஓபன்ஏஐ மாதிரி புதுப்பிப்புகளில் கருத்துக்களை உள்ளடக்கியது.
பெரும்பாலான டெவலப்பர்கள் டிரான்ஸ்கிரிப்ஷன் கருவிகள் வார்த்தைகளை தவறாக எழுதுவதாகவோ அல்லது பிற பிழைகளை ஏற்படுத்துவதாகவோ கருதும் அதே வேளையில், பொறியாளர்கள் மற்றும் ஆராய்ச்சியாளர்கள் விஸ்பரைப் போல மற்றொரு AI- இயங்கும் டிரான்ஸ்கிரிப்ஷன் கருவியை தாங்கள் பார்த்ததில்லை என்று கூறினர்.
விஸ்பர் மாயைகள்
இந்த கருவி OpenAI இன் முதன்மையான சாட்போட் ChatGPT இன் சில பதிப்புகளில் ஒருங்கிணைக்கப்பட்டுள்ளது, மேலும் இது Oracle மற்றும் Microsoft இன் கிளவுட் கம்ப்யூட்டிங் தளங்களில் உள்ளமைக்கப்பட்ட சலுகையாகும், இது உலகம் முழுவதும் ஆயிரக்கணக்கான நிறுவனங்களுக்கு சேவை செய்கிறது. உரையை பல மொழிகளில் படியெடுக்கவும் மொழிபெயர்க்கவும் இது பயன்படுகிறது.
கடந்த மாதத்தில் மட்டும், விஸ்பரின் சமீபத்திய பதிப்பு ஒன்று, ஓப்பன் சோர்ஸ் AI தளமான HuggingFace இலிருந்து 4.2 மில்லியன் முறை பதிவிறக்கம் செய்யப்பட்டது. அங்குள்ள இயந்திர கற்றல் பொறியாளரான சஞ்சித் காந்தி, விஸ்பர் மிகவும் பிரபலமான ஓப்பன் சோர்ஸ் பேச்சு அறிதல் மாடல் என்றும், அழைப்பு மையங்கள் முதல் குரல் உதவியாளர்கள் வரை அனைத்திலும் கட்டமைக்கப்பட்டுள்ளது என்றும் கூறினார்.
கார்னெல் பல்கலைக்கழகத்தின் பேராசிரியர்கள் அலிசன் கோனெக்கே மற்றும் வர்ஜீனியா பல்கலைக்கழகத்தின் மோனா ஸ்லோன் ஆகியோர் கார்னகி மெலன் பல்கலைக்கழகத்தில் நடத்தப்பட்ட ஆராய்ச்சிக் களஞ்சியமான TalkBank இலிருந்து பெற்ற ஆயிரக்கணக்கான குறுகிய துணுக்குகளை ஆய்வு செய்தனர். கிட்டத்தட்ட 40% மாயத்தோற்றங்கள் தீங்கு விளைவிக்கக்கூடியவை அல்லது சம்பந்தப்பட்டவை என்று அவர்கள் தீர்மானித்தனர், ஏனெனில் பேச்சாளர் தவறாகப் புரிந்து கொள்ளப்படலாம் அல்லது தவறாகக் குறிப்பிடப்படலாம்.
அவர்கள் வெளிப்படுத்திய ஒரு எடுத்துக்காட்டில், ஒரு பேச்சாளர் கூறினார், “அவன், சிறுவன், குடையை எடுக்கப் போகிறான், எனக்கு சரியாகத் தெரியவில்லை.”
ஆனால் டிரான்ஸ்கிரிப்ஷன் சாஃப்ட்வேர் மேலும் கூறியது: “அவர் ஒரு பெரிய சிலுவையை, பதின்வயது, சிறிய துண்டை எடுத்தார் … அவர் ஒரு பயங்கரமான கத்தி இல்லை, அதனால் அவர் பலரைக் கொன்றார்.”
மற்றொரு பதிவில் ஒரு பேச்சாளர் “இரண்டு பெண்கள் மற்றும் ஒரு பெண்” என்று விவரித்தார். விஸ்பர் இனம் பற்றிய கூடுதல் வர்ணனையை கண்டுபிடித்தார், “இரண்டு பெண்கள் மற்றும் ஒரு பெண், உம், அவர்கள் கருப்பு.”
மூன்றாவது டிரான்ஸ்கிரிப்ஷனில், விஸ்பர் “ஹைபராக்டிவேட்டட் ஆண்டிபயாடிக்குகள்” என்ற பெயரில் இல்லாத மருந்தைக் கண்டுபிடித்தார்.
விஸ்பர் மற்றும் ஒத்த கருவிகள் ஏன் மாயத்தோற்றம் அடைகின்றன என்பது ஆராய்ச்சியாளர்களுக்கு உறுதியாகத் தெரியவில்லை, ஆனால் மென்பொருள் உருவாக்குநர்கள் இடைநிறுத்தங்கள், பின்னணி ஒலிகள் அல்லது இசையை இயக்கும்போது புனைகதைகள் ஏற்படுவதாகக் கூறினர்.
ஓபன்ஏஐ தனது ஆன்லைன் வெளிப்பாடுகளில் விஸ்பரை “முடிவெடுக்கும் சூழல்களில் பயன்படுத்துவதற்கு எதிராக பரிந்துரைத்தது, அங்கு துல்லியத்தில் உள்ள குறைபாடுகள் விளைவுகளில் உச்சரிக்கப்படும் குறைபாடுகளுக்கு வழிவகுக்கும்.”
மருத்துவர் நியமனங்களை படியெடுத்தல்
அந்த எச்சரிக்கை மருத்துவமனைகள் அல்லது மருத்துவ மையங்கள், விஸ்பர் உள்ளிட்ட பேச்சு-க்கு-உரை மாதிரிகளைப் பயன்படுத்துவதைத் தடுக்கவில்லை, மருத்துவரின் வருகையின் போது கூறப்பட்டவற்றைப் பதிவுசெய்து, மருத்துவ வழங்குநர்களுக்குக் குறிப்பு எடுப்பதில் அல்லது அறிக்கை எழுதுவதில் குறைந்த நேரத்தைச் செலவிடலாம்.
மினசோட்டாவில் உள்ள மன்காடோ கிளினிக் மற்றும் லாஸ் ஏஞ்சல்ஸ் குழந்தைகள் மருத்துவமனை உட்பட 30,000 க்கும் மேற்பட்ட மருத்துவர்கள் மற்றும் 40 சுகாதார அமைப்புகள், பிரான்ஸ் மற்றும் அமெரிக்காவில் அலுவலகங்களைக் கொண்ட நப்லாவால் உருவாக்கப்பட்ட விஸ்பர் அடிப்படையிலான கருவியைப் பயன்படுத்தத் தொடங்கியுள்ளன.
நோயாளிகளின் தொடர்புகளை படியெடுக்கவும் சுருக்கவும் அந்த கருவி மருத்துவ மொழியில் நன்றாக டியூன் செய்யப்பட்டது என்று நப்லாவின் தலைமை தொழில்நுட்ப அதிகாரி மார்ட்டின் ரைசன் கூறினார்.
விஸ்பர் மாயத்தோற்றத்தை ஏற்படுத்தும் என்பதை அறிந்திருப்பதாகவும், சிக்கலைத் தணிப்பதாகவும் நிறுவன அதிகாரிகள் தெரிவித்தனர்.
Nabla's AI-உருவாக்கப்பட்ட டிரான்ஸ்கிரிப்டை அசல் பதிவுடன் ஒப்பிடுவது சாத்தியமில்லை, ஏனெனில் Nabla இன் கருவி “தரவு பாதுகாப்பு காரணங்களுக்காக” அசல் ஆடியோவை அழிக்கிறது, ரைசன் கூறினார்.
சுமார் 7 மில்லியன் மருத்துவ வருகைகளைப் படியெடுக்க இந்த கருவி பயன்படுத்தப்பட்டுள்ளதாக நப்லா கூறினார்.
சாண்டர்ஸ், முன்னாள் OpenAI இன்ஜினியர், டிரான்ஸ்கிரிப்டுகள் இரண்டு முறை சரிபார்க்கப்படாவிட்டால் அசல் ஆடியோவை அழிப்பது கவலைக்குரியதாக இருக்கும் அல்லது அவை சரியானவை என்பதை சரிபார்க்க மருத்துவர்களால் பதிவை அணுக முடியவில்லை என்றார்.
“நீங்கள் அடிப்படை உண்மையை எடுத்துக் கொண்டால் பிழைகளைப் பிடிக்க முடியாது,” என்று அவர் கூறினார்.
எந்த மாதிரியும் சரியானதல்ல என்றும், தற்போது மருத்துவ வழங்குநர்கள் டிரான்ஸ்கிரிப்ட் செய்யப்பட்ட குறிப்புகளை விரைவாகத் திருத்தவும் அங்கீகரிக்கவும் வேண்டும் என்றும், ஆனால் அது மாறக்கூடும் என்றும் நப்லா கூறினார்.
தனியுரிமை கவலைகள்
நோயாளிகள் தங்கள் மருத்துவர்களுடனான சந்திப்புகள் ரகசியமானவை என்பதால், AI-உருவாக்கப்பட்ட டிரான்ஸ்கிரிப்டுகள் அவர்களை எவ்வாறு பாதிக்கின்றன என்பதை அறிவது கடினம்.
கலிஃபோர்னியா மாநில சட்டமியற்றுபவர், ரெபேக்கா பாயர்-கஹான், இந்த ஆண்டின் தொடக்கத்தில் தனது குழந்தைகளில் ஒருவரை மருத்துவரிடம் அழைத்துச் சென்றதாகவும், மைக்ரோசாஃப்ட் அஸூர் உள்ளிட்ட விற்பனையாளர்களுடன் ஆலோசனை ஆடியோவைப் பகிர்ந்து கொள்ள அனுமதி கோரிய சுகாதார நெட்வொர்க் வழங்கிய படிவத்தில் கையெழுத்திட மறுத்ததாகவும் கூறினார். OpenAI இன் மிகப்பெரிய முதலீட்டாளரால் இயக்கப்படும் கிளவுட் கம்ப்யூட்டிங் அமைப்பு. இதுபோன்ற நெருக்கமான மருத்துவ உரையாடல்களை தொழில்நுட்ப நிறுவனங்களுடன் பகிர்ந்து கொள்வதை Bauer-Kahan விரும்பவில்லை என்று அவர் கூறினார்.
மாநில சட்டமன்றத்தில் சான் பிரான்சிஸ்கோ புறநகர்ப் பகுதியின் ஒரு பகுதியை பிரதிநிதித்துவப்படுத்தும் ஜனநாயகக் கட்சியைச் சேர்ந்த பவர்-கஹான் கூறுகையில், “இலாப நிறுவனங்களுக்கு இதைப் பெறுவதற்கான உரிமை இருக்கும் என்று வெளியீடு மிகவும் குறிப்பிட்டது. “நான் 'முற்றிலும் இல்லை' போல் இருந்தேன்.”
ஜான் முயர் ஹெல்த் செய்தித் தொடர்பாளர் பென் ட்ரூ கூறுகையில், சுகாதார அமைப்பு மாநில மற்றும் கூட்டாட்சி தனியுரிமைச் சட்டங்களுக்கு இணங்குகிறது.