인공지능 역사와 개념을 알아봅시다.

일반적으로 GPU 또는 CPU를 사용하는 고객의 스마트 기기에는 음성 인식용 영상(얼굴 및 신체 인식)과 같은 다양한 기계 학습 과정이 수행된다. 특히 구글은 GPU 기반의 인공지능 서비스(학습)뿐만 아니라 스마트 기기도 운용에 사용한다. GPU는 방대한 양의 소규모 데이터를 병렬화할 수 있다는 장점이 있지만, 데이터가 데이터 센터에서 계속 제공될 경우에만 효율적이다. 오픈 소스: 이것이 2015년 11월 도쿄 텐수로 행사에서 구글이 공개한 이유입니다. 오픈 소스 프로젝트가 자체 머신러닝 기술을 공개하고 외부에서도 무료로 이용할 수 있도록 하였다. 결과적으로 외부 개발자들은 프로젝트에 참여함으로써 텐서 플로우를 무료로 이용할 수 있을 뿐만 아니라 스마트 기기의 CPU에서 직접 실행할 수 있다. 반면에 페이스북은 GPU를 사용하여 시스템에 음성 인식 서비스를 훈련하지만, 스마트 기기의 CPU를 사용하여 사용자의 얼굴 인식 기능을 구현한다. 왜냐하면 머신러닝과 딥러닝에 대한 고객 경험 데이터는 이미 월 15억 명의 고객을 보유하고 있고 15억 개의 반응과 다양한 기여가 있기 때문이다. 이 경우 고객 인터페이스에 대한 깊은 학습을 통해 맞춤형 서비스를 제공할 수 있습니다. 페이스북은 2015년 1월 위한 오픈 소스 모듈이 되었습니다. 다른 경쟁사들 앞에서 공개됩니다. 많은 연구 프로젝트는 FARE에서 Facebook에서 Forch를 사용합니다. 토치는 컴퓨터, 기계 학습 및 컴퓨터 비전 전문화를 위해 사용되는 오픈 소스 개발 환경이다. 약한 인공지능과 강한 인공지능 기술 분야에서 인공지능의 정의는 "문제 해결 기능"이다. 어떤 옷을 입는지, 어떤 말을 하는지, 대부분의 사람들이 결정하는 것은 일종의 문제 해결 과정이다. 그래서 그들은 로봇을 인간 흉내를 낼 때 인공지능이라고 부릅니다. 인공 지능은 단순한 문제 해결에서부터 기술적인 변화까지 지능을 실질적으로 구현하기 위해 진화하고 있다. 인공지능은 크게 두 부분으로 나뉜다. 약한 AI와 강력한 AI는 특정 분야에서 문제를 해결하는 기술이다. 단어를 입력할 때 검색 결과의 목소리를 듣고 그것이 무엇을 의미하는지 알아내면 문제를 해결하기 위한 것이다. 반면에 강력한 AI는 문제를 축소하지 않고도 문제를 해결할 수 있는 기술의 수준을 의미한다. 강력한 AI는 "터미네이터의 스카넷"과 "아벤져스 2"와 "울트론"과 같은 영화에서 자주 볼 수 있다. 현재 단계에서 낮은 AI가 자주 사용된다. 과학계는 강력한 인공지능을 만들기 위해 아직 할 일이 많다고 믿고 있다. 스카이넷 인공 지능이 나오는 터미네이터 (터미네이터 영화 공식 웹사이트) 약한 AI의 예로는 스팸메일 필터, 이미지 분류 및 기계 번역 기술이 있다. 예를 들어 구글 포토 서비스를 봅시다. "동물"을 입력하면 동물 사진만 인식하여 불러올 수 있습니다. 왜냐하면 구글 포토에는 "동물"과 "식품"을 포함한 수백만 개의 뷰가 있기 때문입니다. 그리고 이 기계는 그 중 하나를 골랐습니다. 알파고 또한 약한 AI의 한 예이다. 사람들은 알파가 창조적인 숫자를 가지고 있다는 것에 충격을 받지만 알파는 확률만을 계산하죠. AlphaGo는 출발을 결정할 가능성이 높거나 낮은 경우에만 계산한다. AI 및 머신러닝 머신러닝(기계학습)은 약한 AI를 구현하는데 사용된다. 딥러닝과 머신러닝은 함께 사용되지만 머신러닝은 더 큰 개념이다. 머신러닝의 방법 중 하나는 딥러닝입니다. 딥 러닝은 또한 가장 자주 사용되는 머신러닝 방법이다. 딥러닝은 이렇게 작동합니다. 과거에, 데이터는 사전 지식에 근거하여 분류되었다. 그것은 "삶은 귀와 네 발을 가진 그림"이라는 사전을 입력하여 고양이 사진을 찾는 방법이다. 고양이의 귀와 다리가 잘 보이지 않으면 어떻게 될까요? 그 기계는 그것을 고양이의 사진이 아니라고 분류했다. 왜냐하면 그것은 사전의 내용과 다르기 때문입니다. 그러나 Deep Learning은 이러한 사전 지식을 사용하지 않는다. 데이터가 입력되면 기계가 그 특성을 분류한다. 이때는 자료가 많지 않아야 하며 고양이 사진을 나타내는 이른바 "응답 데이터"가 많이 있어야 한다. 머신러닝은 빅데이터와 기반구조를 지원해야 하기 때문에 어려운 분야로 간주되고 있다.  머신러닝은 주로 알고리즘, 데이터 및 하드웨어 인프라로 구성된다. 사실, 수십 년 전에 머신러닝 알고리즘이 발표되었고, 관련 기술 중 많은 것들이 오픈 소스로 발표되었습니다. 기계 학습의 핵심은 데이터의 양입니다. 데이터가 많을수록 품질이 향상됩니다. 많은 데이터를 가지고 있다면 많은 데이터를 처리할 수 있는 인프라를 구축해야 한다. 예전에는 기계 학습을 할 수 있다는 것을 알고 있었지만, 인프라가 따라올 수 없었기 때문에 기계 학습을 할 수 없었습니다. 현재 기술 및 하드웨어 수준은 실험의 기초를 형성하고 누가 그것을 더 빨리 할 수 있는가에 초점을 맞추기 위해 증가하고 있다. 기계 학습은 대규모 데이터와 인프라를 지원해야 하기 때문에 신규 기업에게는 어려운 분야이다. 이러한 이유로 머신러닝의 활용은 규모가 커진다. 즉, 과제를 해결하려면 IT 기업만큼 커야 합니다. 기존의 기계 학습 기술은 벌, 개미, 거미의 두뇌 레벨과 유사하다. 그러나 그것은 문제 해결에 전문적이었기 때문에 특정한 분야에서 인간의 능력을 능가할 수 있다. 자주 사용되는 번역기와 언어 능력은 기계 학습의 예이기도 하다. AlphaGo를 통해 인공 지능은 전 세계적으로 주목을 끌었습니다. 클라우드 컴퓨팅 환경의 급속한 진화와 빅 데이터에 의한 정의상의 극적인 돌파로 인해 인공 지능은 n이 되고 있다.

'유익한 정보' 카테고리의 다른 글

블랙홀 7부 존재  (0) 2020.12.31
허블우주망원경 4부 우주여행  (0) 2020.12.30
인공지능 1부 개념은?  (0) 2020.12.27
허블우주망원경 2부 역사  (0) 2020.12.24
2021년 삼광사 달력 글귀 추천  (0) 2020.12.16
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기