AI ஒழுங்குமுறைகளில் தெளிவு மற்றும் நிலைத்தன்மையை Google DeepMind இயக்குனர் அழைக்கிறார்

கலிஃபோர்னியாவின் கவர்னர் AI பாதுகாப்புச் சட்டத்தை துடைத்திருப்பதைத் தடை செய்ததைத் தொடர்ந்து, Google DeepMind நிர்வாகி பாதுகாப்பான, பொறுப்பான மற்றும் மனிதனை மையமாகக் கொண்ட செயற்கை நுண்ணறிவு என்ன என்பதில் ஒருமித்த கருத்துக்கு அழைப்பு விடுத்துள்ளார்.

“இந்தத் துறைக்கான எனது நம்பிக்கை என்னவென்றால், நாம் நிலைத்தன்மையைப் பெற முடியும், இதன் மூலம் இந்தத் தொழில்நுட்பத்தின் அனைத்து நன்மைகளையும் நாம் காண முடியும்” என்று நிறுவனத்தின் AI ஆராய்ச்சிப் பிரிவான Google DeepMind இன் மூலோபாய முன்முயற்சிகளின் இயக்குனர் டெர்ரா டெர்வில்லிகர் கூறினார். ஜனவரி AI CEO மற்றும் cofounder நூஷீன் Hashemi, Eclipse Ventures பொது பங்குதாரர் Aidan Madigan-Curtis மற்றும் Deloitte & Touche LLP US இல் தணிக்கை மற்றும் உத்தரவாதத்திற்கான தலைமை நிர்வாக அதிகாரி திப்தி குலாட்டி ஆகியோருடன் புதன்கிழமை ஃபார்ச்சூன் மிகவும் சக்திவாய்ந்த பெண்கள் உச்சி மாநாட்டில் அவர் பேசினார்.

பெண்கள் SB-1047 ஐப் பற்றி பேசினர், இது மிகவும் விவாதிக்கப்பட்ட கலிஃபோர்னியா மசோதா, இது மிகப்பெரிய AI மாதிரிகளை உருவாக்குபவர்கள் சில பாதுகாப்பு சோதனைகள் மற்றும் இடர் குறைப்பு தேவைகளை பூர்த்தி செய்ய வேண்டும். ஓபன்ஏஐ போன்ற நிறுவனங்கள் தாங்கள் கூறுவது போல் சக்திவாய்ந்த மாதிரிகளை உருவாக்கினால், அவற்றைப் பாதுகாப்பாக உருவாக்க சில சட்டப்பூர்வ கடமைகள் இருக்க வேண்டும் என்று மேடிகன்-கர்டிஸ் பரிந்துரைத்தார்.

“எங்கள் அமைப்பு எவ்வாறு செயல்படுகிறது, இல்லையா? இது மிகுதி மற்றும் இழுத்தல்,” மதிகன்-கர்டிஸ் கூறினார். “ஒரு மருத்துவராக இருப்பதற்கு பயமுறுத்தும் விஷயம் என்னவென்றால், மருத்துவ முறைகேடுக்காக நீங்கள் வழக்குத் தொடரலாம்.”

இப்போது இறந்துவிட்ட கலிஃபோர்னியா மசோதாவின் “கொல்ல-சுவிட்ச்” விதியை அவர் குறிப்பிட்டார், இது பேரழிவு ஆயுதங்களை உருவாக்குவது போன்ற பேரழிவுகளுக்கு எப்படியாவது பயன்படுத்தப்பட்டால், நிறுவனங்கள் தங்கள் மாதிரியை அணைக்க ஒரு வழியை உருவாக்க வேண்டும்.

“ஒரு குறிப்பிட்ட மக்களைப் பயமுறுத்துவதற்கு உங்கள் மாதிரி பயன்படுத்தப்பட்டால், நாங்கள் அதை அணைக்கவோ அல்லது பயன்படுத்துவதைத் தடுக்கவோ முடியாது?” என்று கேட்டாள்.

DeepMind's Terwilliger ஆனது AI ஸ்டேக்கின் வெவ்வேறு நிலைகளுக்குக் காரணமான ஒழுங்குமுறைகளைக் காண விரும்புகிறது. அந்த மாதிரியைப் பயன்படுத்தும் பயன்பாடுகளிலிருந்து அடித்தள மாதிரிகள் வெவ்வேறு பொறுப்புகளைக் கொண்டுள்ளன என்று அவர் கூறினார்.

“இந்த வேறுபாடுகளைப் புரிந்துகொள்வதற்கு கட்டுப்பாட்டாளர்களுக்கு உதவுவதில் நாம் அனைவரும் சாய்ந்துகொள்வது மிகவும் முக்கியமானது, இதனால் நிலையானதாகவும் அர்த்தமுள்ளதாகவும் இருக்கும் கட்டுப்பாடுகள் எங்களிடம் உள்ளன,” என்று அவர் கூறினார்.

ஆனால் பொறுப்புடன் கட்டியெழுப்புவதற்கான உந்துதல் அரசாங்கத்திடமிருந்து வரக்கூடாது, டெர்வில்லிகர் கூறினார். ஃப்ளக்ஸில் ஒழுங்குமுறை தேவைகள் இருந்தாலும், AI ஐ பொறுப்புடன் உருவாக்குவது தொழில்நுட்பத்தை நீண்டகாலமாக ஏற்றுக்கொள்வதற்கு முக்கியமாக இருக்கும் என்று அவர் மேலும் கூறினார். தரவு சுத்தமாக இருப்பதை உறுதிசெய்வது முதல் மாடலுக்கான பாதுகாப்புத் தடுப்புகளை அமைப்பது வரை தொழில்நுட்பத்தின் ஒவ்வொரு நிலைக்கும் இது பொருந்தும்.

“பொறுப்பு ஒரு போட்டி நன்மை என்று நாங்கள் நம்ப வேண்டும் என்று நான் நினைக்கிறேன், எனவே அந்த அடுக்கின் அனைத்து மட்டங்களிலும் எவ்வாறு பொறுப்பாக இருக்க வேண்டும் என்பதைப் புரிந்துகொள்வது ஒரு வித்தியாசத்தை ஏற்படுத்தும்,” என்று அவர் கூறினார்.

Leave a Comment