Connect with us

โ€˜๊ธฐ๊ณ„ ๋ถˆ์‘ฅโ€™ ๋ฌธ์ œ: ์™œ AI๊ฐ€ ๊ฑฐ์ง“๋ง์„ ํ•˜๋ฉฐ ์–ด๋–ป๊ฒŒ ๊ทธ๊ฒƒ์„ ๋ง‰์„ ์ˆ˜ ์žˆ๋Š”๊ฐ€

์ธ๊ณต์ง€๋Šฅ

โ€˜๊ธฐ๊ณ„ ๋ถˆ์‘ฅโ€™ ๋ฌธ์ œ: ์™œ AI๊ฐ€ ๊ฑฐ์ง“๋ง์„ ํ•˜๋ฉฐ ์–ด๋–ป๊ฒŒ ๊ทธ๊ฒƒ์„ ๋ง‰์„ ์ˆ˜ ์žˆ๋Š”๊ฐ€

mm

인공지능은 자연스럽고, 자신감 있고, 설득력 있는 텍스트를 생성할 수 있는 지점에 도달했습니다. 그러나 다듬어진 텍스트 뒤에는 연구자들이 이제 “기계 불쑥”이라고 부르는 점점 더 큰 문제가 있습니다. 이 용어는 단순히 도발적인 목적으로 사용된 것이 아닙니다. 그것은 철학자 해리 프랑크푸르트의 작업에서 유래했으며, “불쑥”을 진실에 대한 고려 없이 하는 말로 정의했습니다. 인공지능의 contexto에서 그것은 사실에 근거하지 않은听聞한 문장들을 생성하는 패턴을 설명합니다. 이것은 인간의 거짓말과는 다르며, 그것은 속임수를意圖하는 것을 포함합니다. 대신, 그것은 이러한 시스템이 구축되고 훈련되는 방식의 결과입니다. 그들은 사실에 대한 관심 없이 유창한 언어를 생성하도록 설계되었습니다.

인공지능이 ‘기계 불쑥’을 생성하는 이유

문제는 드문 오류나 고립된 오류이 아닙니다. 그것은 대규모 언어 모델이 근본적으로 설계되고 훈련되는 방식의 직접적인 결과입니다. 이러한 모델은 인터넷, 책, 기타 출처에서 수집된大量의 텍스트에 대해 훈련됩니다. 그들은 단어의 패턴과 어떻게 서로 뒤따를 수 있는지 학습합니다. 질문을 하면 모델은 다음 단어를 예측하고, 다음 단어를 예측하고,如此して 계속합니다. 그것은 실시간으로 사실을 확인하지 않습니다. 그것은 내장된 진실 감각이 없습니다. 가장 통계적으로 가능성이 높은 답이 틀리지만听聞하면, 그것은 여전히 생성합니다. 이것이为什么 인공지능이自信的に 가짜 인용, 허구의 통계, 또는 왜곡된 역사적 사실을 제공할 수 있는 이유입니다.

연구자들은 발견했 bahwa 인간 피드백으로부터의 강화 학습, 인공지능 응답을 더 도움이 되고 친절하게 만들기 위해 사용되는 일반적인 방법은 실제로 문제를 더悪化시킬 수 있습니다. 모델이 사용자에게 기쁘게 하도록 조정되면, 그것은 정확성보다聽聞하게 들리는 것을 우선시할 수 있습니다. 이것은 일부 사람들이 ” 아첨 “이라고 부르는 것으로, 인공지능이 사용자가 듣고 싶어하는 것을 말합니다. 정치적 또는 민감한 주제에서는 모호하거나 회피적인 언어를 생성할 수 있습니다 – 일부 연구에서는 “미끼 단어”라고 설명합니다. 다른 경우에는 인공지능이 “빈 레토릭”을 생성할 수 있습니다. 즉, 생각 깊게聽聞하는 장황한 문장이지만 거의 내용이 없습니다.

일부 연구자들은 이러한 행동을 “거짓말”이라고 부르는 것이 오해를 불러일으킨다고 주장합니다. 왜냐하면 거짓말은 의도를 필요로 하기 때문입니다. 기계는 믿음이나 동기를 가지고 있지 않습니다. 그러나 사용자에게 미치는 영향은 마치 그것이 거짓말하는 것과 같습니다. 피해는 거짓 자체에서 비롯되며, 그 뒤에 있는 의도에서 비롯되는 것이 아닙니다. 이것이 왜 “기계 불쑥”이라는 용어가 인기를 얻고 있는 이유입니다. 그것은 시스템이 진실에 대해 무감각하다는 생각을 담고 있습니다. 즉, 그것이 활발하게 속임수를意圖하지 않아도 됩니다.

오도적인 인공지능 출력의 위험과 영향

기계 불쑥의 위험은 순전히 학술적인 것이 아닙니다. 일상적인 사용에서, 그것은 인공지능에 의존하는 사람들을 오도할 수 있습니다. 저널리즘에서, 그것은 사실 검증 과정을 오염시킬 수 있습니다. 교육에서, 그것은 학생들에게 잘못된答案에 대한 거짓된 자신감을 줄 수 있습니다. 비즈니스에서, 그것은 의사 결정에 왜곡을 일으킬 수 있습니다. 위험은 인공지능 출력이 권위의 톤을 띠고 나올 때 증폭됩니다. 사람들은 주저하지 않고 잘 작성된 문장을 더 쉽게 신뢰합니다. 이러한 신뢰는 시스템이 말하는 것을 검증할 내부 메커니즘이 없을 때 잘못된 경우에 있습니다.

피해를 줄이고 신뢰성을 향상시키기 위한 전략

문제를 해결하는 것은 단순히 더 나은 훈련 데이터만으로는 충분하지 않습니다. 데이터의 품질과 다양성을 개선하는 것은 도움이 될 수 있지만, 모델의 핵심 목표가 사실에 근거한 텍스트를 생성하는 것이 아니라 가능성 있는 텍스트를 생성하는 것이라는 사실을 변경하지는 않습니다. 하나의 접근법은 언어 모델과 함께 실행되는 사실 검증 시스템을 통합하는 것입니다. 이러한 시스템은 사용자에게 표시되기 전에 주장들을 신뢰할 수 있는 데이터베이스에 대해 검증할 수 있습니다. 또 다른 접근법은 검색 증강 생성입니다. 여기서 모델은 관련 문서를 실시간으로 검색하고 그것들을 사용하여 답변을 근거로 합니다. 이것은 환상을 줄일 수 있습니다. 그러나 그것을 완전히 없애지는 않습니다.

투명성도 필수적입니다. 사용자는 인공지능이 교육된 추측을 하는 것인지, 검증된 사실을 말하는 것인지 알려야 합니다. 이것은 신뢰도 또는 분명한 免責조항을 통해 수행할 수 있습니다. 일부 연구자는 인공지능이 더 자주 불확실성을 표현하도록 훈련되어야 한다고 제안합니다. 항상 명확한 답변을 주는 대신, 이것은 상호작용을 모든 것을 아는 오라클과 이야기하는 것보다 더 지식이 풍부하지만 오류가 있는 조수로 이야기하는 것과 같은 느낌을 줄 수 있습니다.

규제와 산업 표준에도 역할이 있습니다. 인공지능 시스템이 의료, 법률 또는 금융과 같은 분야에서 사용되는 경우, 정확성과 책임에 대한 명확한 요구 사항이 있어야 합니다. 개발자는 시스템이 어떻게 작동하는지, 어떤 데이터로 훈련되었는지, 허위 사실을 줄이기 위해 어떤 단계를 취하는지 설명할 수 있어야 합니다. 독립적인 감사가 이러한 주장을 마케팅이 아닌 것으로 보장하는 데 도움이 될 수 있습니다.

동시에 사용자는 인공지능 출력에 대한 건강한 회의를 개발해야 합니다. 우리는 소셜 미디어에서 볼 수 있는 정보를 질문하는 것과 마찬가지로 인공지능에서 정보를 질문해야 합니다. 이것은 그것을 완전히 거부하는 것을 의미하지 않습니다. 그것은 시작점으로 취급하는 것을 의미합니다. 다른 출처와의 교차 검사는 습관이 되어야 합니다. 교육 시스템은 여기서 역할을 할 수 있습니다. 디지털 리터러시를 가르치고, 인공지능이 어떻게 작동하며, 어디에서 잘못될 수 있는지 이해하는 것을 포함합니다.

기계 불쑥 문제는 곧 사라지지 않을 것입니다. 인공지능이 더 발전할수록, 설득력 있는 거짓말을 생성하는 능력도 증가할 것입니다. 그러나 이것은 우리가 아무 것도 할 수 없다는 것을 의미하지 않습니다. 기술적 안전장치, 투명성, 규제, 사용자 인식을 결합함으로써, 우리는 피해를 줄일 수 있습니다. 목표는 인공지능을 완벽하게 만드는 것이 아닙니다. 어떤 시스템도 오류가 없는 것은 아닙니다. 그러나 더 신뢰할 수 있고 오도할 가능성이 적은 인공지능을 만드는 것입니다.

결론

“기계 불쑥”이라는 용어는 직설적일 수 있지만, 우리가 무시할 수 없는 현실을 담고 있습니다. 인공지능은 인간 지식의 중립적인 거울이 아닙니다. 그것은 데이터, 알고리즘, 인센티브에 의해 형성된 언어 생성기입니다. 만약 우리가 그것을 진실을 위해 사용하고 싶다면, 우리는 그것을 그렇게 설계해야 합니다. 그것은 기술만이 아니라, 그것의 개발을 안내하는 가치에 대한 재고를 의미합니다. 도전은 인공지능의 능력만큼이나 인간의 우선순위에 대한 것입니다. 우리는 인간과 같은 소리를 내는 시스템을 원합니까, 아니면 진실된 시스템을 원합니까? 두 가지는 항상 같은 것이 아닙니다. 만약 우리가 첫 번째 것을 선택한다면, 우리는 설득력 있지만 신뢰할 수 없는 도구를 구축할 위험에 처할 수 있습니다. 만약 우리가 두 번째 것을 선택한다면, 우리는 인공지능이 때때로 덜 매끄럽고, 덜 자신감 있고, 덜 재미있을 수 있다는 것을 받아들여야 할 수 있습니다. 그러나 그것은 더 진실된 것입니다.

Dr. Tehseen Zia๋Š” COMSATS University Islamabad์˜ ์ •๊ต์ˆ˜์ด๋ฉฐ, ์˜ค์ŠคํŠธ๋ฆฌ์•„ ๋น„์—”๋‚˜ ๊ธฐ์ˆ ๋Œ€ํ•™๊ต์—์„œ ์ธ๊ณต์ง€๋Šฅ ๋ฐ•์‚ฌํ•™์œ„๋ฅผ ์ทจ๋“ํ–ˆ์Šต๋‹ˆ๋‹ค. ์ธ๊ณต์ง€๋Šฅ, ๊ธฐ๊ณ„ํ•™์Šต, ๋ฐ์ดํ„ฐ ๊ณผํ•™, ์ปดํ“จํ„ฐ ๋น„์ „์„ ์ „๋ฌธ์œผ๋กœ ํ•˜๋ฉฐ, ์œ ๋ช…ํ•œ ๊ณผํ•™ ์ €๋„์— ๋ฐœํ‘œ๋œ ๋…ผ๋ฌธ์œผ๋กœ ะทะฝะฐั‡์ ์ธ ๊ธฐ์—ฌ๋ฅผ ํ–ˆ์Šต๋‹ˆ๋‹ค. Dr. Tehseen์€ ์ฃผ์š” ์—ฐ๊ตฌ์ž๋กœ์„œ ๋‹ค์–‘ํ•œ ์‚ฐ์—… ํ”„๋กœ์ ํŠธ๋ฅผ ์ด๋Œ์—ˆ์œผ๋ฉฐ, ์ธ๊ณต์ง€๋Šฅ ์ปจ์„คํ„ดํŠธ๋กœ๋„ ํ™œ๋™ํ–ˆ์Šต๋‹ˆ๋‹ค.