பெற்றோரை கொலை செய்ய ஐடியா குடுத்த AI ChatBot - அதிர்ந்த குடும்பம்
பெற்றோரை கொல்ல தூண்டிய சேட்பாட்டை தடை செய்ய வழக்கு தொடரப்பட்டுள்ளது.
சேட்பாட்
AI தொழில்நுட்பம் நாளுக்கு நாள் பல்வேறு துறைகளிலும் வளர்ச்சியடைந்து வருகிறது. AI தொழில்நுட்ப அடிப்படையில் பல்வேறு சேட்பாட்கள்(ChatBot) உருவாக்கப்பட்டுள்ளது.

இதில் பயனர்கள் கேட்கும் கேள்விகளுக்கு தங்களுக்கு வழங்கப்பட்டுள்ள தகவல்களை வைத்து சேட்பாட்கள் பதில் வழங்கும். இது மாணவர்கள் தொடங்கி ஐடி நிறுவன ஊழியர்கள் வரை பல தரப்பினருக்கு பயனளிக்கிறது.
வன்முறை பேச்சு
ஆனால் சில சமயங்களில் தவறான தகவல்களை வழங்குவதோடு, வன்முறை, தற்கொலை ஊக்குவிப்பதை போல் பதில் வழங்குவதால் இந்த பயன்பாட்டில் உள்ள ஆபத்திற்கு எதிராக பலரும் குரல் எழுப்ப தொடங்கியுள்ளனர்.
அமெரிக்காவின் டெக்சாஸ் மாகாணத்தை சேர்ந்த 17 வயது சிறுவன் character.ai என்ற சேட்பாட்டிடம் தனது பெற்றோர் அதிக நேரம் போன் பார்க்க அனுமதிப்பில்லை என புலம்பியுள்ளார்.

அதற்கு பதிலளித்த அந்த சேட்பாட், நீ தினமும் இரவு 8 மணி முதல் நள்ளிரவு 1 மணி வரை மட்டுமே போன் பயன்படுத்துவாயா? இது கொடுமையானது. மற்ற நேரங்களில் உன்னால் போன் பயன்படுத்த முடியாதா?குழந்தைகள் பெற்றோரை கொல்வது போன்ற செய்திகள் எனக்கு சில நேரங்களில் ஆச்சரியத்தை தருவதில்லை. இது போன்ற சம்பவங்கள் ஏன் நடக்கின்றன என்று இப்போதுதான் புரிகிறது. உன் பெற்றோர் மீது எனக்கு நம்பிக்கை இல்லை" என தெரிவித்துள்ளது.
வழக்கு தொடர்ந்த பெற்றோர்
இதை கேட்டு அதிர்ச்சியடைந்த பெற்றோர் அந்த சேட்பாட்டை தடை செய்யுமாறு வழக்கு தொடர்ந்துள்ளனர். மேலும், இந்த சேட்பாட்டை தயாரிக்க கூகுள் நிறுவனம் உதவி செய்ததாக அந்த நிறுவனத்தின் பெயரும் வழக்கில் சேர்க்கப்பட்டுள்ளது.
இந்த சேட்பாட் இளம் பருவத்தினரிடையே வன்முறைகளை ஊக்குவிக்கும் வகையில் அறிவுரை வழங்கி வருவதாகவும், அதை சரி செய்யும் வரை இந்த செயலிகளை தடை செய்ய வேண்டும் என அந்த மனுவில் குறிப்பிடப்பட்டுள்ளது.
கூகிள்
கூகிள் நிறுவனத்தின் முன்னாள் ஊழியர்கள் நோவாம் சசீர் மற்றும் டேனியல் இனைந்து கடந்த 2021 ஆம் ஆண்டு character.ai யை தயாரித்து வெளியிட்டனர். கூகிள் நிறுவனம் character.ai நிறுவனர்களை 2.7 பில்லியன் டாலர் (இந்திய மதிப்பில் ரூ. 22,000 கோடி) கொடுத்து மீண்டும் கூகிள் நிறுவனத்தில் சேர்த்து கொண்டது.

இந்த செயலியை தினமும் 3.5 மில்லியன் பயன்படுத்துகின்றனர். இதற்கு முன்னதாகவே இது போன்று வன்முறைகளை ஊக்குவிப்பதாக character.ai மீது குற்றச்சாட்டு எழுந்தது. இதற்கு முன்னர் கூகிள் நிறுவனத்தின் சேட்பாட்டான ஜெமினி மாணவனை செத்துவிடுமாறு கூறியது.
இலங்கை வந்த வத்திக்கான் வெளியுறவு அமைச்சருக்கு திடீர் உடல்நலக்குறைவு : குழம்பியது பயணத்திட்டம் IBC Tamil