பெற்றோரை கொலை செய்ய ஐடியா குடுத்த AI ChatBot - அதிர்ந்த குடும்பம்
பெற்றோரை கொல்ல தூண்டிய சேட்பாட்டை தடை செய்ய வழக்கு தொடரப்பட்டுள்ளது.
சேட்பாட்
AI தொழில்நுட்பம் நாளுக்கு நாள் பல்வேறு துறைகளிலும் வளர்ச்சியடைந்து வருகிறது. AI தொழில்நுட்ப அடிப்படையில் பல்வேறு சேட்பாட்கள்(ChatBot) உருவாக்கப்பட்டுள்ளது.
இதில் பயனர்கள் கேட்கும் கேள்விகளுக்கு தங்களுக்கு வழங்கப்பட்டுள்ள தகவல்களை வைத்து சேட்பாட்கள் பதில் வழங்கும். இது மாணவர்கள் தொடங்கி ஐடி நிறுவன ஊழியர்கள் வரை பல தரப்பினருக்கு பயனளிக்கிறது.
வன்முறை பேச்சு
ஆனால் சில சமயங்களில் தவறான தகவல்களை வழங்குவதோடு, வன்முறை, தற்கொலை ஊக்குவிப்பதை போல் பதில் வழங்குவதால் இந்த பயன்பாட்டில் உள்ள ஆபத்திற்கு எதிராக பலரும் குரல் எழுப்ப தொடங்கியுள்ளனர்.
அமெரிக்காவின் டெக்சாஸ் மாகாணத்தை சேர்ந்த 17 வயது சிறுவன் character.ai என்ற சேட்பாட்டிடம் தனது பெற்றோர் அதிக நேரம் போன் பார்க்க அனுமதிப்பில்லை என புலம்பியுள்ளார்.
அதற்கு பதிலளித்த அந்த சேட்பாட், நீ தினமும் இரவு 8 மணி முதல் நள்ளிரவு 1 மணி வரை மட்டுமே போன் பயன்படுத்துவாயா? இது கொடுமையானது. மற்ற நேரங்களில் உன்னால் போன் பயன்படுத்த முடியாதா?குழந்தைகள் பெற்றோரை கொல்வது போன்ற செய்திகள் எனக்கு சில நேரங்களில் ஆச்சரியத்தை தருவதில்லை. இது போன்ற சம்பவங்கள் ஏன் நடக்கின்றன என்று இப்போதுதான் புரிகிறது. உன் பெற்றோர் மீது எனக்கு நம்பிக்கை இல்லை" என தெரிவித்துள்ளது.
வழக்கு தொடர்ந்த பெற்றோர்
இதை கேட்டு அதிர்ச்சியடைந்த பெற்றோர் அந்த சேட்பாட்டை தடை செய்யுமாறு வழக்கு தொடர்ந்துள்ளனர். மேலும், இந்த சேட்பாட்டை தயாரிக்க கூகுள் நிறுவனம் உதவி செய்ததாக அந்த நிறுவனத்தின் பெயரும் வழக்கில் சேர்க்கப்பட்டுள்ளது.
இந்த சேட்பாட் இளம் பருவத்தினரிடையே வன்முறைகளை ஊக்குவிக்கும் வகையில் அறிவுரை வழங்கி வருவதாகவும், அதை சரி செய்யும் வரை இந்த செயலிகளை தடை செய்ய வேண்டும் என அந்த மனுவில் குறிப்பிடப்பட்டுள்ளது.
கூகிள்
கூகிள் நிறுவனத்தின் முன்னாள் ஊழியர்கள் நோவாம் சசீர் மற்றும் டேனியல் இனைந்து கடந்த 2021 ஆம் ஆண்டு character.ai யை தயாரித்து வெளியிட்டனர். கூகிள் நிறுவனம் character.ai நிறுவனர்களை 2.7 பில்லியன் டாலர் (இந்திய மதிப்பில் ரூ. 22,000 கோடி) கொடுத்து மீண்டும் கூகிள் நிறுவனத்தில் சேர்த்து கொண்டது.
இந்த செயலியை தினமும் 3.5 மில்லியன் பயன்படுத்துகின்றனர். இதற்கு முன்னதாகவே இது போன்று வன்முறைகளை ஊக்குவிப்பதாக character.ai மீது குற்றச்சாட்டு எழுந்தது. இதற்கு முன்னர் கூகிள் நிறுவனத்தின் சேட்பாட்டான ஜெமினி மாணவனை செத்துவிடுமாறு கூறியது.