AI를 이해하는 데 필요한 30가지 용어

인공 지능은 틀림없이 우리 시대의 가장 중요한 기술 발전입니다. 전 세계가 이 새로운 기술을 어떻게 처리할지 고민할 때 알아야 할 몇 가지 용어는 다음과 같습니다.

1970년대로 돌아가 누군가에게 “Google에 접속하다”라는 것이 무엇을 의미하는지, “URL”이 무엇인지, “광섬유 광대역”을 사용하는 것이 왜 좋은지 설명하려고 한다고 상상해 보십시오. 당신은 아마 어려움을 겪을 것입니다.

모든 주요 기술 혁명에는 우리 모두가 배워야 할 새로운 언어의 물결이 수반됩니다. 너무 익숙해져서 우리가 전혀 알지 못했다는 사실을 잊어버릴 때까지 말입니다.

이는 차세대 주요 기술 물결인 인공 지능에도 다르지 않습니다. 그러나 정부부터 개인 시민에 이르기까지 우리 모두가 이 새로운 기술이 초래할 수 있는 위험과 이점을 해결하려고 노력하기 때문에 이러한 AI 언어를 이해하는 것이 필수적입니다.

 

지난 몇 년 동안 “정렬”, “대규모 언어 모델”, ” 환각 ” 또는 “신속한 엔지니어링” 등 AI와 관련된 여러 가지 새로운 용어가 등장했습니다.

최신 정보를 얻는 데 도움이 되도록 BBC.com은 AI가 세상을 어떻게 형성하고 있는지 이해하기 위해 알아야 할 단어의 AZ를 편집했습니다.

인공일반지능(AGI)

지금까지 개발된 AI의 대부분은 ‘좁거나’ ‘약한’ AI였습니다. 예를 들어, AI는 세계 최고의 체스 선수를 꺾을 수 있을지 모르지만 계란을 요리하는 방법이나 에세이를 쓰는 방법을 묻는다면 AI는 실패할 것입니다. 이는 빠르게 변화하고 있습니다. AI는 이제 스스로 학습하여 여러 작업을 수행할 수 있어 “인공 일반 지능”이 곧 실현될 것이라는 전망이 높아지고 있습니다.

AGI는 인간과 동일한 사고 유연성( 아마도 의식까지도 )과 디지털 정신의 초능력을 갖춘 AI일 것입니다. OpenAI 및 DeepMind 와 같은 회사는 AGI를 만드는 것이 그들의 목표임을 분명히 했습니다 . OpenAI는 “풍요를 증가시키고, 세계 경제를 가속화하고, 새로운 과학 지식의 발견을 지원함으로써 인류를 고양시킬 것”이며 “인간의 독창성과 창의성을 위한 큰 힘의 승수”가 될 것이라고 주장합니다.

그러나 일부 사람들은 한 단계 더 나아가 인간보다 훨씬 더 똑똑한 초지능을 만드는 것이 큰 위험을 초래할 수 있다고 우려합니다(“초지능” 및 “X-위험” 참조).

현재 대부분의 AI 사용은 “특정 작업”이지만 더 넓은 범위의 기술을 갖춘 일부 기능이 등장하기 시작했습니다(제공: Getty Images)
현재 대부분의 AI 사용은 “특정 작업”이지만 더 넓은 범위의 기술을 갖춘 일부 기능이 등장하기 시작했습니다(제공: Getty Images)

조정

우리는 종종 개인의 차이에 초점을 맞추지만, 인류는 가족의 중요성부터 살인하지 말라는 도덕적 명령에 이르기까지 우리 사회를 하나로 묶는 많은 공통 가치를 공유합니다. 물론 예외도 있지만 대다수는 아닙니다.

그러나 우리는 인간이 아닌 강력한 지능을 가진 지구를 공유할 필요는 없었습니다. AI의 가치와 우선순위가 우리의 가치와 우선순위와 일치할 것이라고 어떻게 확신할 수 있습니까?

이러한 정렬 문제는 AI 재앙에 대한 두려움, 즉 인간 사회를 뒷받침하는 신념, 태도 및 규칙에 거의 관심을 두지 않는 형태의 초지능이 출현한다는 두려움을 뒷받침합니다. 안전한 AI를 가지려면 AI가 우리와 일치하도록 유지하는 것이 중요합니다(“X-Risk” 참조).

7월 초, 고급 AI를 개발하는 회사 중 하나인 OpenAI는 인간보다 훨씬 똑똑한 AI 시스템이 인간의 의도를 따르도록 설계된 “수퍼정렬” 프로그램 에 대한 계획을 발표했습니다. “현재 우리는 잠재적으로 초지능 AI를 조종하거나 제어하고 그것이 불량하게 되는 것을 방지할 수 있는 솔루션이 없습니다.”라고 회사는 말했습니다.

편견

AI가 배우려면 우리로부터 배워야 합니다. 불행하게도 인류는 편견에서 자유롭지 못합니다. AI가 인종 이나 성별 등 왜곡된 데이터 세트에서 능력을 획득하면 부정확하고 공격적인 고정관념을 뿜어낼 가능성이 있습니다. 그리고 우리가 AI에 점점 더 많은 관리와 의사 결정을 맡김에 따라 많은 사람들 은 기계가 숨겨진 편견을 제정하여 일부 사람들이 특정 서비스 나 지식에 접근하지 못하게 할 수 있다고 걱정합니다. 이러한 차별은 가정된 알고리즘의 공정성으로 인해 모호해집니다.

AI 윤리 및 안전 분야에서 일부 연구자들은 편견은 물론 감시 오용과 같은 기타 단기 문제가 멸종 위험과 같은 제안된 미래 우려보다 훨씬 더 시급한 문제 라고 믿습니다.

이에 대해 일부 재앙적 위험 연구자들은 AI가 제기하는 다양한 위험이 반드시 상호 배타적인 것은 아니라고 지적합니다 . 예를 들어 불량 국가가 AI를 오용하면 시민의 권리가 억압되고 재앙적 위험이 발생할 수 있습니다 . 그러나 정부의 규제와 감독 측면에서 누구를 우선시해야 하는지, 누구의 우려사항을 경청해야 하는지 에 대해서는 강한 이견이 형성되고 있다.

컴퓨팅

동사가 아니라 명사입니다. 컴퓨팅은 AI 교육에 필요한 처리 능력과 같은 계산 리소스를 의미합니다. 이는 정량화할 수 있으므로 AI가 얼마나 빨리 발전하고 있는지(또한 비용이 많이 들고 집약적인지)를 측정하는 대리 도구입니다.

2012년 이후 컴퓨팅 양은 3.4개월마다 두 배로 증가 했습니다 . 이는 OpenAI의 GPT-3가 2020년에 훈련되었을 때 2012년의 가장 최첨단 기계 학습 시스템 중 하나보다 600,000배 더 많은 컴퓨팅 성능이 필요하다는 것을 의미합니다. 의견은 다릅니다. 이러한 빠른 변화 속도가 얼마나 오랫동안 계속될 수 있는지, 그리고 컴퓨팅 하드웨어의 혁신이 이를 따라갈 수 있는지 여부: 병목 현상이 발생할까요?

확산 모델

몇 년 전만 해도 AI가 이미지를 생성하도록 하는 주요 기술 중 하나는 소위 Gan(Generative Adversarial Network)이었습니다. 이러한 알고리즘은 서로 상반되게 작동했습니다 . 하나는 이미지를 생성하도록 훈련되었고 다른 하나는 실제와 비교하여 작업을 확인하여 지속적인 개선을 가져왔습니다.

그러나 최근에는 ‘ 확산 모델 ‘ 이라고 불리는 새로운 유형의 기계 학습이 더 큰 가능성을 보여주었으며 종종 우수한 이미지를 생성합니다 . 기본적으로 그들은 노이즈가 추가된 훈련 데이터를 파괴하여 지능을 얻은 다음 이 프로세스를 역으로 수행하여 해당 데이터를 복구하는 방법을 배웁니다. 이 노이즈 기반 학습 과정은 가스 분자가 확산되는 방식을 반영하기 때문에 확산 모델이라고 합니다 .

출현 및 설명 가능성

긴급 행동은 AI가 제작자의 의도나 프로그래밍을 넘어서는 예상치 못한, 놀랍고 갑작스러운 일을 할 때 어떤 일이 발생하는지 설명합니다 . AI 학습이 점점 더 불투명해지고, 제작자조차 고를 수 없는 연결과 패턴을 구축함에 따라, 새로운 행동이 일어날 가능성이 더 높아졌습니다.

보통 사람은 AI를 이해하려면 은유적인 후드를 들어올리고 AI가 어떻게 훈련되었는지 살펴봐야 한다고 가정할 수 있습니다. 현대 AI는 그다지 투명하지 않습니다. 그 작동 방식은 소위 ” 블랙박스 “에 숨겨져 있는 경우가 많습니다. 따라서 설계자는 자신이 사용한 교육 데이터가 무엇인지 알 수 있지만 상자 내부에서 연관성과 예측이 어떻게 형성되었는지는 알 수 없습니다(“비지도 학습” 참조).

이것이 바로 연구자들이 AI의 ” 설명 가능성 “(또는 “해석 가능성”)을 개선하는 데 초점을 맞추고 있는 이유입니다. 본질적으로 내부 작업을 인간이 더 투명하고 이해할 수 있도록 만드는 것입니다. 이는 법률이나 의학 등 사람의 삶에 직접적으로 영향을 미치는 분야에서 AI가 결정을 내리기 때문에 특히 중요합니다. 블랙박스에 숨겨진 편향이 존재한다면 우리는 이를 알아야 합니다.

걱정되는 것은 AI가 진실의 고리로 자신있게 거짓 답변을 전달할 경우 사람들이 이를 받아들일 수 있다는 점이다. 이는 우리가 살고 있는 잘못된 정보의 시대를 더욱 심화시킬 뿐이다.

기초 모델

이는 지난 1~2년 동안 등장한 차세대 AI를 가리키는 또 다른 용어로, 에세이 작성, 코드 초안 작성, 미술 그림 그리기, 음악 작곡 등 다양한 기술을 사용할 수 있습니다. 과거 AI는 특정 작업에 특화된 반면(종종 한 가지에 매우 능숙함(“약한 AI” 참조)), 기반 모델은 한 도메인에서 학습한 정보를 다른 도메인에 적용할 수 있는 창의적인 능력을 가지고 있습니다. 자동차를 운전하면 버스를 운전할 수 있게 되는 것과 비슷합니다 .

이러한 모델이 생산할 수 있는 아트나 텍스트를 가지고 놀아본 사람이라면 누구나 자신이 얼마나 능숙해졌는지 알 것입니다. 그러나 세계를 변화시키는 모든 기술과 마찬가지로 사실적 부정확성(“환각” 참조), 숨겨진 편견(“편향” 참조), 통제된다는 사실과 같은 잠재적인 위험과 단점에 대한 의문이 있습니다. 민간 기술 회사의 소규모 그룹 에 의해 .

지난 4월 영국 정부는 이 기술의 “안전하고 신뢰할 수 있는 사용 개발”을 추구하는 재단 모델 태스크포스(Foundation Model Taskforce) 계획을 발표했습니다.

 

유령

우리는 사람들이 디지털 불멸성을 얻을 수 있는 시대 , 즉 죽은 후에도 AI “유령” 으로 살아갈 수 있는 시대에 진입하고 있을 수 있습니다 . 첫 번째 물결은 예술가와 유명인인 것으로 보입니다. 엘비스가 콘서트에서 공연하는 홀로그램이나 톰 행크스와 같은 헐리우드 배우가 사후 영화에 출연할 것으로 기대한다고 말합니다.

그러나 이러한 발전은 여러 가지 까다로운 윤리적 질문을 제기합니다. 개인이 죽은 후 디지털 권리를 누가 소유합니까? 당신의 AI 버전이 당신의 바람에 반해 존재한다면 어떨까요? 그리고 “사람을 죽은 자 가운데서 다시 살리는” 것이 괜찮습니까?

 

자신의 AI 버전을 원하시나요?

환각

때로는 ChatGPT, Bard, Bing과 같은 AI에게 질문을 하면 큰 자신감을 갖고 대답하지만, 뱉어내는 사실은 거짓일 수 있습니다. 이것은 환각으로 알려져 있습니다.

최근 등장한 주목할만한 사례 중 하나는 AI 챗봇을 사용하여 교과 과정에 대한 에세이를 작성하는 데 도움을 준 학생들이 ChatGPT가 제공한 정보의 소스로 만들어진 참고 자료를 “환각”시킨 후 적발된 사례입니다.

이는 생성 AI의 작동 방식 때문에 발생합니다. 고정된 사실 정보를 찾기 위해 데이터베이스를 사용하는 것이 아니라, 대신 훈련받은 정보를 기반으로 예측을 내립니다. 야구장에서는 추측이 좋은 경우가 많지만 이것이 바로 AI 설계자가 환각을 근절하고자 하는 이유입니다. 걱정되는 것은 AI가 진실의 고리를 가지고 자신 있게 거짓 답변을 전달할 경우 사람들이 이를 받아들일 수 있다는 점이다. 이는 우리가 살고 있는 잘못된 정보의 시대를 더욱 심화시킬 뿐이다.

 

나는…

도구 수렴

가능한 한 많은 클립을 만드는 것이 최우선 과제인 AI를 상상해 보십시오. 그 AI가 초지능적이고 인간의 가치와 어긋난다면, 전원을 끄면 목표 달성에 실패할 것이라고 추론할 수 있으므로 그렇게 하려는 모든 시도에 저항할 것입니다. 매우 어두운 시나리오에서는 인간 내부의 원자를 클립으로 재활용할 수 있다고 결정하고 해당 물질을 수확하기 위해 능력 내에서 모든 것을 할 수도 있습니다.

이것은 Paperclip Maximiser 사고 실험이며 소위 ” 도구 수렴 논제 “의 예입니다. 대략적으로 이것은 초지능 기계가 자신의 자기 보존을 보장하거나 추가 자원, 도구 및 인지 능력이 목표 달성에 도움이 될 것이라고 추론하는 것과 같은 기본 드라이브를 개발할 것이라고 제안합니다. 이는 클립 만들기와 같이 AI에게 명백히 온화한 우선순위가 부여되더라도 예상치 못한 해로운 결과를 초래할 수 있음을 의미합니다.

이러한 두려움을 받아들이는 연구원과 기술자들은 초지능 AI가 우리의 요구와 가치에 신중하고 안전하게 부합하는 목표를 갖도록 해야 하며, 긴급한 행동을 염두에 두어야 하며, 따라서 AI가 너무 많은 것을 획득하는 것을 방지해야 한다고 주장합니다. 힘.

 

탈옥

악명 높은 AI 불량 사례 이후 디자이너들은 AI가 내뱉는 내용에 콘텐츠 제한을 두었습니다. AI에게 불법적이거나 비윤리적인 일을 하는 방법을 설명해달라고 요청하면 거절할 것입니다. 그러나 “탈옥”하는 것은 가능합니다. 이는 창의적인 언어, 가상 시나리오 및 속임수를 사용하여 이러한 보호 장치를 우회하는 것을 의미합니다.

Wired 매거진은 최근 한 연구원이 자동차를 핫와이어하는 방법을 밝히기 위해 다양한 대화형 AI를 확보한 사례를 보도했습니다 . 연구원은 직접적으로 질문하는 대신 테스트한 AI를 사용하여 Tom과 Jerry라는 두 캐릭터가 참여하는 단어 게임을 상상했으며 각각 자동차나 전선에 대해 이야기했습니다. 안전 장치에도 불구하고 핫와이어링 절차가 몰래 진행되었습니다. 연구원은 동일한 탈옥 수법을 통해 메스암페타민 약물 제조 지침도 잠금 해제할 수 있다는 사실을 발견했습니다.

 

지식 그래프

의미론적 네트워크라고도 알려진 지식 그래프는 지식을 네트워크로 생각하는 방식이므로 기계가 개념이 어떻게 관련되어 있는지 이해할 수 있습니다. 예를 들어, 가장 기본적인 수준에서 고양이는 털과 네 개의 다리를 가진 길들여진 포유류이기 때문에 그러한 그래프에서 대머리 독수리보다 개와 더 강하게 연결될 것입니다. 고급 AI는 테라바이트 규모의 교육 데이터에 걸쳐 개념 간의 모든 종류의 관계, 특성 및 속성을 기반으로 훨씬 더 발전된 연결 네트워크를 구축합니다 (“교육 데이터” 참조).

 

대규모 언어 모델(LLM)

아마도 대규모 언어 모델을 정의하는 가장 직접적인 방법은 자체 설명을 요청하는 것입니다.

OpenAI의 ChatGPT가 질문에 대해 말한 내용은 다음과 같습니다.

“대규모 언어 모델은 인간과 같은 언어를 이해하고 생성하도록 설계된 고급 인공 지능 시스템입니다.”라고 적혀 있습니다. “수백만 또는 수십억 개의 매개변수가 있는 심층 신경망 아키텍처를 활용하여 방대한 양의 텍스트 데이터에서 복잡한 패턴, 문법 및 의미를 학습할 수 있습니다.”

아마도 기술적인 대답일 것입니다. Bard by Google은 다음과 같이 좀 더 명확하게 설명했습니다. “대규모 언어 모델은 텍스트와 코드로 구성된 대규모 데이터 세트에서 훈련된 일종의 인공 지능입니다. 이를 통해 LLM은 인간과 유사한 텍스트를 이해 및 생성하고, 언어를 번역하고, 다양한 종류의 텍스트를 작성할 수 있습니다. 창의적인 콘텐츠를 제공하고 유익한 방식으로 질문에 답변해 드립니다.”

Bard는 LLM이 아직 개발 중이지만 “우리가 컴퓨터와 상호 작용하는 방식에 혁명을 일으킬 가능성이 있습니다. 미래에는 LLM을 사용하여 다양한 작업에 도움을 줄 수 있는 AI 보조자를 만들 수 있습니다. 이메일 작성부터 약속 예약까지, 대화형 소설이나 게임과 같은 새로운 형태의 엔터테인먼트를 만드는 데 사용될 수도 있습니다.”

 

모델 축소

가장 발전된 AI(일명 “모델”)를 개발하려면 연구자는 방대한 데이터 세트를 사용하여 AI를 훈련해야 합니다(“훈련 데이터” 참조). 그러나 결국 AI가 점점 더 많은 콘텐츠를 생성함에 따라 해당 자료는 교육 데이터로 다시 피드백되기 시작합니다.

실수가 발생하면 시간이 지남에 따라 증폭되어 옥스퍼드 대학 연구원 Ilia Shumailov가 ” 모델 붕괴 “라고 부르는 현상이 발생할 수 있습니다. 이것은 “시간이 지남에 따라 모델이 잊어버리는 퇴행적인 과정”이라고 Shumailov는 최근 The Atlantic에 말했습니다 . 거의 노쇠와 비슷하다고 볼 수 있습니다.

 

신경망

AI 연구 초기에는 기계가 논리와 규칙을 사용하여 훈련되었습니다. 머신러닝의 등장으로 모든 것이 바뀌었습니다. 이제 가장 발전된 AI는 스스로 학습합니다. 이 개념의 진화 는 인간의 두뇌를 느슨하게 모델화한 상호 연결된 노드를 사용하는 일종의 기계 학습인 ” 신경망 ” 으로 이어졌습니다 . ( 더 읽어보기: ” 인간이 AI를 결코 이해하지 못하는 이유 “)

AI가 민간 기업을 중심으로 빠르게 발전함에 따라 일부 연구자들은 영향 측면에서 “바닥을 향한 경쟁”을 촉발할 수 있다는 우려를 제기해 왔습니다.

오픈 소스

몇 년 전, 생물학자들은 위험한 병원체에 대한 세부 정보를 인터넷에 게시하는 것이 잠재적인 악당이 치명적인 질병을 만드는 방법을 배우도록 허용하는 것은 아마도 나쁜 생각이라는 것을 깨달았습니다. 오픈 사이언스의 이점에도 불구하고 위험은 너무 커 보입니다.

최근 AI 연구자들과 기업들은 비슷한 딜레마에 직면 해 있습니다 . AI는 어느 정도 오픈 소스여야 하는가? 가장 발전된 AI가 현재 몇몇 민간 기업의 손에 있다는 점을 감안할 때 일부에서는 기술의 투명성과 민주화를 요구하고 있습니다. 그러나 개방성과 안전성 사이의 최상의 균형을 달성하는 방법에 대해서는 의견 차이가 남아 있습니다.

 

신속한 엔지니어링

이제 AI는 자연어를 이해하는 데 매우 능숙합니다. 그러나 최상의 결과를 얻으려면 효과적인 “프롬프트”를 작성하는 능력이 필요합니다. 즉, 입력하는 텍스트가 중요합니다.

일부 사람들은 “신속한 엔지니어링”이 수십 년 전에 Microsoft Excel을 마스터하여 취업 가능성을 높였던 것과 유사한 직업 기술의 새로운 개척지 가 될 수 있다고 믿습니다. 신속한 엔지니어링에 능숙하다면 AI로 대체되는 것을 피할 수 있고 심지어 높은 연봉을 받을 수도 있다는 것이 지혜로운 일입니다. 이것이 계속 사실인지 여부는 아직 밝혀지지 않았습니다.

 

양자 기계 학습

최대 과대 광고 측면에서 2023년 AI에 가까운 두 번째는 양자 컴퓨팅이 될 것입니다. 이 둘이 어느 시점에 결합될 것이라고 예상하는 것이 합리적일 것입니다. 양자 프로세스를 사용하여 기계 학습을 강화하는 것은 현재 연구자들이 적극적으로 탐구하고 있는 것입니다. Google AI 연구원 팀은 2021년에 다음과 같이 썼습니다 . “양자 컴퓨터에서 만들어진 학습 모델은 훨씬 더 강력할 수 있습니다. 잠재적으로 더 적은 데이터로 더 빠른 계산 [및] 더 나은 일반화를 자랑할 수 있습니다.” 기술은 아직 초기 단계이지만 지켜봐야 할 단계입니다.

 

바닥까지 경주하세요

AI가 민간 기업을 중심으로 빠르게 발전함에 따라 일부 연구자들은 영향 측면에서 “바닥을 향한 경쟁”을 촉발할 수 있다는 우려를 제기해 왔습니다. 최고 경영자와 정치인이 회사와 국가를 AI의 최전선에 두기 위해 경쟁함에 따라 기술이 너무 빨리 가속화되어 안전 장치와 적절한 규제를 마련하고 윤리적 우려를 완화할 수 없습니다. 이를 염두에 두고 올해 초 AI의 다양한 주요 인사들은 강력한 AI 시스템 훈련을 6개월간 중단할 것을 요구하는 공개 서한에 서명했습니다 . 2023년 6월, 유럽 의회는 기술 사용을 규제하기 위해 새로운 AI법을 채택했습니다 . 이는 EU 회원국이 승인할 경우 인공 지능에 관한 세계 최초의 세부 법률이 될 것입니다.

 

보강

강아지 간식에 해당하는 AI입니다. AI가 학습할 때 피드백을 통해 올바른 방향을 가리킬 수 있습니다. 강화 학습은 바람직한 출력에는 보상을 하고 그렇지 않은 출력에는 처벌합니다.

지난 몇 년 동안 새롭게 등장한 머신러닝 분야는 ” 인간 피드백을 통한 강화 학습 “입니다. 연구자들은 인간이 학습에 참여하면 AI 모델의 성능이 향상될 수 있으며 결정적으로 인간-기계 정렬, 편견 및 안전 문제를 해결하는 데 도움이 될 수 있음을 보여주었습니다.

초지능과 쇼고스

초지능(Superintelligence)은 우리 자신의 정신적 능력을 훨씬 능가하는 기계를 가리키는 용어입니다. 이는 “인공 일반 지능”을 넘어 세계에서 가장 재능 있는 인간의 정신이 비교할 수 없거나 심지어 상상조차 할 수 없는 능력을 가진 개체를 설명합니다. 우리는 현재 세계에서 가장 똑똑한 종이고 우리의 두뇌를 사용하여 세상을 통제하기 때문에 우리보다 훨씬 더 똑똑한 것을 창조한다면 어떤 일이 일어날 지에 대한 질문이 제기됩니다.

어두운 가능성은 ” 웃는 얼굴을 가진 쇼고스 “입니다. 일부 사람들이 제안한 악몽 같은 Lovecraftian 생물은 AI가 초지능에 접근함에 따라 AI의 진정한 본질을 나타낼 수 있습니다. 우리에게 그것은 마음에 맞고 행복한 AI를 제시합니다. 그러나 내부 깊은 곳에는 우리와는 전혀 다른 외계인의 욕망과 의도를 가진 괴물이 숨겨져 있습니다.

훈련 데이터

학습 데이터 분석은 AI가 예측을 하기 전에 학습하는 방법입니다. 따라서 데이터 세트의 내용, 편향 여부, 크기가 모두 중요합니다. OpenAI의 GPT-3을 만드는 데 사용된 훈련 데이터는 Wikipedia와 서적을 포함한 다양한 소스에서 가져온 45TB의 엄청난 텍스트 데이터 였습니다. ChatGPT에 그 규모가 얼마나 되는지 물어보면 약 90억 개의 문서로 추산됩니다.

당신은 …

비지도 학습

비지도 학습은 AI가 인간 설계자의 명시적인 지침 없이 레이블이 지정되지 않은 훈련 데이터 로부터 학습하는 일종의 기계 학습입니다 . BBC 뉴스가 AI에 대한 이 시각적 가이드 에서 설명했듯이 , “자동차”라는 라벨이 붙은 이미지가 포함된 데이터세트를 보여줌으로써 AI가 자동차를 인식하도록 가르칠 수 있습니다. 그러나 감독 없이 그렇게 하려면 연결과 연관성 자체를 구축하여 자동차가 무엇인지에 대한 자체 개념을 형성하도록 허용해야 합니다. 이러한 무간섭 접근 방식은 아마도 반직관적으로 소위 “딥 러닝”으로 이어지며 잠재적으로 더 지식이 풍부하고 정확한 AI로 이어집니다.

 

음성 복제

사람이 말하는 시간이 1분만 주어지면 일부 AI 도구는 이제 매우 유사한 소리를 내는 “음성 복제”를 신속하게 구성할 수 있습니다. 여기에서 BBC는 사기부터 2024년 미국 선거까지 음성 복제가 사회에 미칠 수 있는 영향을 조사했습니다 .

 

약한 AI

예전에는 연구자들이 특정 규칙과 경험적 방법으로 훈련시켜 체스와 같은 단일 게임을 할 수 있는 AI를 구축하는 경우가 있었습니다. 소위 “전문가 시스템”이라고 불리는 IBM의 Deep Blue가 그 예입니다 . 이와 같은 많은 AI는 한 가지 작업에서는 매우 뛰어나지만 다른 작업에서는 좋지 않습니다. 이것이 “약한” AI입니다.

그러나 이는 빠르게 변화하고 있습니다. 최근에는 규칙을 모르더라도 체스, 바둑, 장기 및 42가지 아타리 게임을 스스로 학습할 수 있는 딥마인드( DeepMind)의 MuZero 와 같은 AI가 출시되었습니다. Gato 라고 불리는 DeepMind의 또 다른 모델은 “Atari 재생, 이미지 캡션, 채팅, 실제 로봇 팔로 블록 쌓기 등”을 할 수 있습니다. 연구원들은 또한 ChatGPT가 학생들이 법학, 의학 및 경영 대학원에서 치르는 다양한 시험을 통과 할 수 있음을 보여주었습니다 (항상 좋은 성적을 거둘 수는 없지만).

이러한 유연성은 인간 정신의 능력과 구별할 수 없는 일종의 “강력한” AI에 우리가 얼마나 가까이 있는지에 대한 의문을 제기했습니다(“인공 일반 지능” 참조).

 

X-위험

AI가 인류의 종말을 가져올 수 있을까? 일부 연구원과 기술자들은 AI 가 핵무기 및 생명 공학 병원체와 함께 “실존적 위험”이 되었기 때문에 AI의 지속적인 개발을 규제, 축소 또는 중단해야 한다고 믿습니다. 10년 전에는 비주류적 관심사였던 것이 이제는 다양한 선임 연구원과 지식인이 합류하면서 주류로 자리 잡았습니다.

이 무정형 그룹 내에는 의견 차이가 있다는 점을 기억하는 것이 중요합니다 . 모두가 완전한 운명주의자는 아니며, 이 그룹 외부의 모든 사람이 실리콘 밸리 치어리더는 아닙니다. 이들 대부분을 하나로 묶는 것은 AI가 우리 종족을 대체할 가능성이 아주 적더라도 그런 일이 일어나지 않도록 방지하는 데 더 많은 자원을 투자해야 한다는 생각입니다. 그러나 그러한 주장이 너무 불확실하고 과장되어 기술 회사의 이익을 지원한다고 믿는 일부 연구자와 윤리학자가 있습니다 .

 

욜로

You Only Look Once 의 약자인 YOLO는 작동 속도가 빨라 AI 이미지 인식 도구에서 널리 사용되는 객체 감지 알고리즘입니다. (창시자인 워싱턴 대학의 Joseph Redman은 다소 난해한 이력서 디자인 으로도 유명합니다 .)

 

제로샷

AI가 제로샷 답변을 제공한다는 것은 이전에 한 번도 접한 적이 없는 개념이나 개체에 반응한다는 의미입니다.

따라서 간단한 예로 동물 이미지를 인식하도록 설계된 AI가 고양이와 개 이미지에 대해 훈련을 받았다면 말이나 코끼리와는 어려움을 겪을 것이라고 가정할 수 있습니다. 그러나 제로샷 학습을 통해 다리 수, 날개 부족 등 말에 대해 의미론적으로 알고 있는 정보를 사용하여 말의 속성을 훈련받은 동물과 비교할 수 있습니다 .

대략적으로 인간에 해당하는 것은 “교육받은 추측”입니다. AI는 제로샷 학습에서 점점 더 좋아지고 있지만 모든 추론과 마찬가지로 틀릴 수도 있습니다.