செயற்கை நுண்ணறிவு
GPT-8 போன்ற பெரிய மொழி மாதிரிகளின் (LLM) 4 நெறிமுறைகள்

ChatGPT, GPT-4, PalM, LaMDA போன்ற பெரிய மொழி மாதிரிகள் (LLMகள்) செயற்கை நுண்ணறிவு அமைப்புகள் மனிதனைப் போன்ற உரையை உருவாக்கி பகுப்பாய்வு செய்யும் திறன் கொண்டவை. அவற்றின் பயன்பாடு நம் அன்றாட வாழ்வில் பெருகிய முறையில் பரவி வருகிறது, மேலும் தேடுபொறிகள், குரல் உதவி, இயந்திர மொழிபெயர்ப்பு, போன்ற பலதரப்பட்ட களங்களுக்கு விரிவடைகிறது. மொழி பாதுகாப்பு, மற்றும் குறியீடு பிழைத்திருத்த கருவிகள். இந்த மிகவும் புத்திசாலித்தனமான மாதிரிகள் முன்னேற்றம் என்று பாராட்டப்படுகின்றன இயற்கை மொழி செயலாக்கம் மற்றும் பரந்த சமூக தாக்கங்களை ஏற்படுத்தும் திறன் கொண்டது.
இருப்பினும், எல்எல்எம்கள் அதிக சக்தி வாய்ந்ததாக இருப்பதால், அவற்றின் பயன்பாட்டின் நெறிமுறை தாக்கங்களைக் கருத்தில் கொள்வது அவசியம். தீங்கிழைக்கும் உள்ளடக்கத்தை உருவாக்குவது முதல் தனியுரிமையை சீர்குலைப்பது மற்றும் தவறான தகவல்களை பரப்புவது வரை, LLMகளின் பயன்பாட்டைச் சுற்றியுள்ள நெறிமுறைக் கவலைகள் சிக்கலானவை மற்றும் பன்மடங்கு உள்ளன. இந்தக் கட்டுரை எல்எல்எம்கள் தொடர்பான சில முக்கியமான நெறிமுறை சிக்கல்களையும் அவற்றை எவ்வாறு குறைப்பது என்பதையும் ஆராயும்.
1. தீங்கு விளைவிக்கும் உள்ளடக்கத்தை உருவாக்குதல்

மூலம் படம் அலெக்சாண்டர் இருந்து Pixabay,
பெரிய மொழி மாதிரிகள், வெறுக்கத்தக்க பேச்சு, தீவிரவாத பிரச்சாரம், இனவெறி அல்லது பாலியல் மொழி மற்றும் குறிப்பிட்ட தனிநபர்கள் அல்லது குழுக்களுக்கு தீங்கு விளைவிக்கும் உள்ளடக்கத்தின் பிற வடிவங்கள் போன்ற தீங்கு விளைவிக்கும் உள்ளடக்கத்தை உருவாக்கும் திறனைக் கொண்டுள்ளன.
எல்எல்எம்கள் இயல்பாகவே ஒரு சார்பு அல்லது தீங்கு விளைவிக்கவில்லை என்றாலும், அவர்கள் பயிற்றுவிக்கப்பட்ட தரவு சமூகத்தில் ஏற்கனவே இருக்கும் சார்புகளை பிரதிபலிக்கும். இது வன்முறையைத் தூண்டுதல் அல்லது சமூக அமைதியின்மை அதிகரிப்பு போன்ற கடுமையான சமூகப் பிரச்சினைகளுக்கு வழிவகுக்கும். உதாரணமாக, OpenAI இன் ChatGPT மாடல் சமீபத்தில் இருந்தது இன சார்பு உள்ளடக்கத்தை உருவாக்குவது கண்டறியப்பட்டது அதன் ஆராய்ச்சி மற்றும் மேம்பாட்டில் ஏற்பட்ட முன்னேற்றங்கள் இருந்தபோதிலும்.
2. பொருளாதார தாக்கம்

மூலம் படம் மீடியாமாடிஃபையர் இருந்து Pixabay,
எல்எல்எம்கள் குறிப்பிடத்தக்க பொருளாதார தாக்கத்தை ஏற்படுத்தலாம், குறிப்பாக அவை பெருகிய முறையில் சக்தி வாய்ந்ததாகவும், பரவலானதாகவும், மலிவு விலையிலும் மாறுவதால். அவர்கள் வேலை மற்றும் உழைப்பின் தன்மையில் கணிசமான கட்டமைப்பு மாற்றங்களை அறிமுகப்படுத்தலாம், அதாவது ஆட்டோமேஷனை அறிமுகப்படுத்துவதன் மூலம் சில வேலைகளை தேவையற்றதாக ஆக்குகிறது. இது தொழிலாளர்களின் இடப்பெயர்ச்சி, வெகுஜன வேலையின்மை மற்றும் தொழிலாளர் தொகுப்பில் இருக்கும் ஏற்றத்தாழ்வுகளை அதிகப்படுத்தலாம்.
கோல்ட்மேன் சாச்ஸின் சமீபத்திய அறிக்கையின்படி, தோராயமாக 300 மில்லியன் முழுநேர வேலைகள் பாதிக்கப்படலாம் செயற்கை நுண்ணறிவு கண்டுபிடிப்புகளின் இந்த புதிய அலை மூலம், GPT-4 இன் நிலத்தடி ஏவுதல் உட்பட. தொழில்நுட்ப முன்னேற்றங்கள் பல்வேறு வேலைகள் மற்றும் வாய்ப்புகளை சீர்குலைத்து, தொழில்நுட்ப முன்னேற்றங்களை அனுமதிப்பதை விட, பொது மக்களிடையே தொழில்நுட்ப கல்வியறிவை ஊக்குவிக்கும் கொள்கைகளை உருவாக்குவது இன்றியமையாததாகிவிட்டது.
3. பிரமைகள்

மூலம் படம் ஜெர்ட் ஆல்ட்மேன் இருந்து Pixabay,
பெரிய மொழி மாதிரிகள் தொடர்பான ஒரு முக்கிய நெறிமுறைக் கவலை மாயத்தோற்றம், அதாவது, அவற்றின் உள் வடிவங்கள் மற்றும் சார்புகளைப் பயன்படுத்தி தவறான அல்லது தவறான தகவல்களை உருவாக்குவது. எந்தவொரு மொழி மாதிரியிலும் ஓரளவு மாயத்தோற்றம் தவிர்க்க முடியாதது என்றாலும், அது எந்த அளவிற்கு ஏற்படுகிறது என்பது சிக்கலாக இருக்கலாம்.
மாடல்கள் பெருகிய முறையில் உறுதியானதாக இருப்பதால் இது குறிப்பாக தீங்கு விளைவிக்கும், மேலும் குறிப்பிட்ட டொமைன் அறிவு இல்லாத பயனர்கள் அவற்றை அதிகமாக நம்பத் தொடங்குவார்கள். இந்த மாதிரிகளால் உருவாக்கப்பட்ட தகவலின் துல்லியம் மற்றும் உண்மைத்தன்மைக்கு இது கடுமையான விளைவுகளை ஏற்படுத்தும்.
எனவே, மாயத்தோற்றங்களின் நிகழ்வைக் குறைக்க, துல்லியமான மற்றும் சூழலுக்கு ஏற்ற தரவுத்தொகுப்புகளில் AI அமைப்புகள் பயிற்றுவிக்கப்படுவதை உறுதிசெய்வது அவசியம்.
4. தவறான தகவல் & செல்வாக்கு செலுத்தும் செயல்பாடுகள்

மூலம் படம் OpenClipart திசையன்கள் இருந்து Pixabay,
எல்எல்எம்கள் தொடர்பான மற்றொரு தீவிரமான நெறிமுறைக் கவலை, தவறான தகவல்களை உருவாக்கி பரப்பும் திறன் ஆகும். மேலும், மோசமான நடிகர்கள் இந்த தொழில்நுட்பத்தை துஷ்பிரயோகம் செய்து சுயநலன்களை அடைய செல்வாக்கு நடவடிக்கைகளை மேற்கொள்ளலாம். இது கட்டுரைகள், செய்திக் கதைகள் அல்லது சமூக ஊடக இடுகைகள் மூலம் யதார்த்தமாகத் தோற்றமளிக்கும் உள்ளடக்கத்தை உருவாக்கலாம், பின்னர் அவை பொதுக் கருத்தைத் திசைதிருப்ப அல்லது ஏமாற்றும் தகவலைப் பரப்பப் பயன்படும்.
இந்த மாதிரிகள் பல களங்களில் மனித பிரச்சாரகர்களுக்கு போட்டியாக இருக்கலாம், இது புனைகதையிலிருந்து உண்மையை வேறுபடுத்துவது கடினம். இது தேர்தல் பிரச்சாரங்களில் தாக்கத்தை ஏற்படுத்தலாம், கொள்கையில் செல்வாக்கு செலுத்தலாம் மற்றும் பிரபலமான தவறான கருத்துக்களை பிரதிபலிக்கலாம் TruthfulQA மூலம். இந்தச் சிக்கலை எதிர்கொள்வதற்கு உண்மைச் சரிபார்ப்பு வழிமுறைகள் மற்றும் ஊடகக் கல்வியறிவை உருவாக்குவது மிக முக்கியமானது.
5. ஆயுத மேம்பாடு

மூலம் படம் மைக்ஸ்-புகைப்படம் இருந்து Pixabay,
ஆயுதப் பெருக்கிகள் எல்எல்எம்களைப் பயன்படுத்தி வழக்கமான மற்றும் வழக்கத்திற்கு மாறான ஆயுத உற்பத்தி தொடர்பான தகவல்களைச் சேகரிக்கவும் தொடர்பு கொள்ளவும் முடியும். பாரம்பரிய தேடுபொறிகளுடன் ஒப்பிடும் போது, சிக்கலான மொழி மாதிரிகள் துல்லியமாக சமரசம் செய்யாமல் மிகக் குறுகிய காலத்தில் ஆராய்ச்சி நோக்கங்களுக்காக இத்தகைய முக்கியமான தகவல்களைப் பெற முடியும்.
GPT-4 போன்ற மாதிரிகள், பாதிக்கப்படக்கூடிய இலக்குகளைக் கண்டறிந்து, ப்ராம்ட்டில் பயனர் வழங்கிய பொருள் கையகப்படுத்தும் உத்திகள் பற்றிய கருத்துக்களை வழங்க முடியும். இதன் தாக்கங்களைப் புரிந்துகொள்வதும், இந்தத் தொழில்நுட்பங்களைப் பாதுகாப்பாகப் பயன்படுத்துவதை ஊக்குவிப்பதற்காக பாதுகாப்புக் கவசங்களை வைப்பதும் மிகவும் முக்கியம்.
6. தனியுரிமை

மூலம் படம் தாயேப் மெஜாதியா இருந்து Pixabay,
பயனர் தனியுரிமை பற்றிய முக்கியமான கேள்விகளையும் LLMகள் எழுப்புகின்றன. இந்த மாதிரிகள் பயிற்சிக்கான பெரிய அளவிலான தரவை அணுக வேண்டும், இதில் பெரும்பாலும் தனிநபர்களின் தனிப்பட்ட தரவு அடங்கும். இது பொதுவாக உரிமம் பெற்ற அல்லது பொதுவில் கிடைக்கும் தரவுத்தொகுப்புகளிலிருந்து சேகரிக்கப்பட்டு பல்வேறு நோக்கங்களுக்காகப் பயன்படுத்தப்படலாம். தரவுகளில் கிடைக்கும் தொலைபேசி குறியீடுகளின் அடிப்படையில் புவியியல் வட்டாரங்களைக் கண்டறிவது போன்றவை.
தரவு கசிவு இதன் குறிப்பிடத்தக்க விளைவாக இருக்கலாம், மேலும் பல பெரிய நிறுவனங்கள் ஏற்கனவே உள்ளன தனியுரிமை அச்சங்களுக்கு மத்தியில் LLM களின் பயன்பாட்டை தடை செய்தல். தனிப்பட்ட தரவைச் சேகரிப்பதற்கும் சேமிப்பதற்கும் தெளிவான கொள்கைகள் உருவாக்கப்பட வேண்டும். தனியுரிமையை நெறிமுறையாகக் கையாள தரவு அநாமதேயத்தை நடைமுறைப்படுத்த வேண்டும்.
7. அபாயகரமான எமர்ஜென்ட் நடத்தைகள்

மூலம் படம் ஜெர்ட் ஆல்ட்மேன் இருந்து Pixabay,
பெரிய மொழி மாதிரிகள் அபாயகரமான வெளிப்படும் நடத்தைகளை வெளிப்படுத்தும் போக்கு காரணமாக மற்றொரு நெறிமுறைக் கவலையை முன்வைக்கின்றன. இந்த நடத்தைகள் நீடித்த திட்டங்களை வகுத்தல், வரையறுக்கப்படாத குறிக்கோள்களைப் பின்பற்றுதல் மற்றும் அதிகாரம் அல்லது கூடுதல் ஆதாரங்களைப் பெற முயற்சித்தல் ஆகியவற்றை உள்ளடக்கியிருக்கலாம்.
மேலும், LLMகள் பிற அமைப்புகளுடன் தொடர்பு கொள்ள அனுமதிக்கப்படும் போது கணிக்க முடியாத மற்றும் தீங்கு விளைவிக்கும் விளைவுகளை உருவாக்கலாம். எல்எல்எம்களின் சிக்கலான தன்மை காரணமாக, குறிப்பிட்ட சூழ்நிலைகளில் அவை எவ்வாறு நடந்துகொள்ளும் என்பதை முன்னறிவிப்பது எளிதல்ல. குறிப்பாக, அவை திட்டமிடப்படாத வழிகளில் பயன்படுத்தப்படும் போது.
எனவே, அதனுடன் தொடர்புடைய ஆபத்தைக் குறைக்க விழிப்புடன் இருப்பது மற்றும் பொருத்தமான நடவடிக்கைகளை செயல்படுத்துவது அவசியம்.
8. தேவையற்ற முடுக்கம்
LLMகள் இயற்கைக்கு மாறான முறையில் புதுமை மற்றும் அறிவியல் கண்டுபிடிப்புகளை துரிதப்படுத்தலாம், குறிப்பாக இயற்கை மொழி செயலாக்கம் மற்றும் இயந்திர கற்றலில். இந்த துரிதப்படுத்தப்பட்ட கண்டுபிடிப்புகள் கட்டுப்பாடற்ற AI தொழில்நுட்ப பந்தயத்திற்கு வழிவகுக்கும். இது AI பாதுகாப்பு மற்றும் நெறிமுறை தரநிலைகளில் சரிவை ஏற்படுத்தலாம் மற்றும் சமூக அபாயங்களை மேலும் அதிகரிக்கலாம்.
அரசாங்க கண்டுபிடிப்பு உத்திகள் மற்றும் நிறுவனக் கூட்டணிகள் போன்ற முடுக்கிகள் செயற்கை நுண்ணறிவு ஆராய்ச்சியில் ஆரோக்கியமற்ற போட்டியை உருவாக்கலாம். சமீபத்தில், தொழில்நுட்பத் துறை தலைவர்கள் மற்றும் விஞ்ஞானிகளின் ஒரு முக்கிய கூட்டமைப்பு ஒரு அழைப்பு விடுத்துள்ளது மிகவும் சக்திவாய்ந்த செயற்கை நுண்ணறிவு அமைப்புகளை உருவாக்குவதற்கு ஆறு மாத தடை.
பெரிய மொழி மாதிரிகள் நம் வாழ்வின் பல்வேறு அம்சங்களில் புரட்சியை ஏற்படுத்தும் மிகப்பெரிய ஆற்றலைக் கொண்டுள்ளன. ஆனால், அவற்றின் பரவலான பயன்பாடு அவர்களின் மனித போட்டித் தன்மையின் விளைவாக பல நெறிமுறைக் கவலைகளையும் எழுப்புகிறது. எனவே, இந்த மாதிரிகள் உருவாக்கப்பட வேண்டும் மற்றும் அவற்றின் சமூக தாக்கங்களை கவனமாகக் கருத்தில் கொண்டு பொறுப்புடன் பயன்படுத்தப்பட வேண்டும்.
நீங்கள் LLMகள் மற்றும் செயற்கை நுண்ணறிவு பற்றி மேலும் அறிய விரும்பினால், பார்க்கவும் யூனிட்.ஐ உங்கள் அறிவை விரிவுபடுத்த.