கலிஃபோர்னியாவின் கவர்னர் AI பாதுகாப்புச் சட்டத்தை துடைத்திருப்பதைத் தடை செய்ததைத் தொடர்ந்து, Google DeepMind நிர்வாகி பாதுகாப்பான, பொறுப்பான மற்றும் மனிதனை மையமாகக் கொண்ட செயற்கை நுண்ணறிவு என்ன என்பதில் ஒருமித்த கருத்துக்கு அழைப்பு விடுத்துள்ளார்.
“இந்தத் துறைக்கான எனது நம்பிக்கை என்னவென்றால், நாம் நிலைத்தன்மையைப் பெற முடியும், இதன் மூலம் இந்தத் தொழில்நுட்பத்தின் அனைத்து நன்மைகளையும் நாம் காண முடியும்” என்று நிறுவனத்தின் AI ஆராய்ச்சிப் பிரிவான Google DeepMind இன் மூலோபாய முன்முயற்சிகளின் இயக்குனர் டெர்ரா டெர்வில்லிகர் கூறினார். ஜனவரி AI CEO மற்றும் cofounder நூஷீன் Hashemi, Eclipse Ventures பொது பங்குதாரர் Aidan Madigan-Curtis மற்றும் Deloitte & Touche LLP US இல் தணிக்கை மற்றும் உத்தரவாதத்திற்கான தலைமை நிர்வாக அதிகாரி திப்தி குலாட்டி ஆகியோருடன் புதன்கிழமை ஃபார்ச்சூன் மிகவும் சக்திவாய்ந்த பெண்கள் உச்சி மாநாட்டில் அவர் பேசினார்.
பெண்கள் SB-1047 ஐப் பற்றி பேசினர், இது மிகவும் விவாதிக்கப்பட்ட கலிஃபோர்னியா மசோதா, இது மிகப்பெரிய AI மாதிரிகளை உருவாக்குபவர்கள் சில பாதுகாப்பு சோதனைகள் மற்றும் இடர் குறைப்பு தேவைகளை பூர்த்தி செய்ய வேண்டும். ஓபன்ஏஐ போன்ற நிறுவனங்கள் தாங்கள் கூறுவது போல் சக்திவாய்ந்த மாதிரிகளை உருவாக்கினால், அவற்றைப் பாதுகாப்பாக உருவாக்க சில சட்டப்பூர்வ கடமைகள் இருக்க வேண்டும் என்று மேடிகன்-கர்டிஸ் பரிந்துரைத்தார்.
“எங்கள் அமைப்பு எவ்வாறு செயல்படுகிறது, இல்லையா? இது மிகுதி மற்றும் இழுத்தல்,” மதிகன்-கர்டிஸ் கூறினார். “ஒரு மருத்துவராக இருப்பதற்கு பயமுறுத்தும் விஷயம் என்னவென்றால், மருத்துவ முறைகேடுக்காக நீங்கள் வழக்குத் தொடரலாம்.”
இப்போது இறந்துவிட்ட கலிஃபோர்னியா மசோதாவின் “கொல்ல-சுவிட்ச்” விதியை அவர் குறிப்பிட்டார், இது பேரழிவு ஆயுதங்களை உருவாக்குவது போன்ற பேரழிவுகளுக்கு எப்படியாவது பயன்படுத்தப்பட்டால், நிறுவனங்கள் தங்கள் மாதிரியை அணைக்க ஒரு வழியை உருவாக்க வேண்டும்.
“ஒரு குறிப்பிட்ட மக்களைப் பயமுறுத்துவதற்கு உங்கள் மாதிரி பயன்படுத்தப்பட்டால், நாங்கள் அதை அணைக்கவோ அல்லது பயன்படுத்துவதைத் தடுக்கவோ முடியாது?” என்று கேட்டாள்.
DeepMind's Terwilliger ஆனது AI ஸ்டேக்கின் வெவ்வேறு நிலைகளுக்குக் காரணமான ஒழுங்குமுறைகளைக் காண விரும்புகிறது. அந்த மாதிரியைப் பயன்படுத்தும் பயன்பாடுகளிலிருந்து அடித்தள மாதிரிகள் வெவ்வேறு பொறுப்புகளைக் கொண்டுள்ளன என்று அவர் கூறினார்.
“இந்த வேறுபாடுகளைப் புரிந்துகொள்வதற்கு கட்டுப்பாட்டாளர்களுக்கு உதவுவதில் நாம் அனைவரும் சாய்ந்துகொள்வது மிகவும் முக்கியமானது, இதனால் நிலையானதாகவும் அர்த்தமுள்ளதாகவும் இருக்கும் கட்டுப்பாடுகள் எங்களிடம் உள்ளன,” என்று அவர் கூறினார்.
ஆனால் பொறுப்புடன் கட்டியெழுப்புவதற்கான உந்துதல் அரசாங்கத்திடமிருந்து வரக்கூடாது, டெர்வில்லிகர் கூறினார். ஃப்ளக்ஸில் ஒழுங்குமுறை தேவைகள் இருந்தாலும், AI ஐ பொறுப்புடன் உருவாக்குவது தொழில்நுட்பத்தை நீண்டகாலமாக ஏற்றுக்கொள்வதற்கு முக்கியமாக இருக்கும் என்று அவர் மேலும் கூறினார். தரவு சுத்தமாக இருப்பதை உறுதிசெய்வது முதல் மாடலுக்கான பாதுகாப்புத் தடுப்புகளை அமைப்பது வரை தொழில்நுட்பத்தின் ஒவ்வொரு நிலைக்கும் இது பொருந்தும்.
“பொறுப்பு ஒரு போட்டி நன்மை என்று நாங்கள் நம்ப வேண்டும் என்று நான் நினைக்கிறேன், எனவே அந்த அடுக்கின் அனைத்து மட்டங்களிலும் எவ்வாறு பொறுப்பாக இருக்க வேண்டும் என்பதைப் புரிந்துகொள்வது ஒரு வித்தியாசத்தை ஏற்படுத்தும்,” என்று அவர் கூறினார்.