본문 바로가기

카테고리 없음

고도로 발전하는 ai 엔진

페이스북, 트위터와 같은 ai 엔진의 발전

 

프린스턴 심리학자들이 발견하고 있는 것은 기존 이론을 확장하여 설명할 수 있습니다. 그러나 그들이 점점 더 복잡함을 드러낼수록 덜 복잡해질 것입니다. 그 과정의 논리적 절정은 Facebook이나 AlphaFold에 의해 구현된 이론 없는 예측 엔진이 되는 것입니다. 일부 과학자들은 그것에 편하고 심지어 열망하기도 합니다. 음성 인식 소프트웨어의 선구자인 프레데릭 옐리넥(Frederick Jelinek)은 “언어학자를 해고할 때마다 음성 인식기의 성능이 올라갑니다.”라고 말했을 때, 그는 이론이 발전을 가로막고 있다는 것을 의미했습니다. 당시는 1980년대였습니다. 또는 단백질 구조를 취하십시오. 단백질의 기능은 크게 구조에 의해 결정되므로 주어진 단백질의 작용을 차단하거나 강화하는 약물을 설계하려면 그 구조를 알아야 합니다. AlphaFold는 X선 결정학과 같은 기술을 사용하여 실험적으로 파생된 구조에 대해 교육을 받았으며 현재로서는 실험 데이터가 없는 단백질보다 실험 데이터가 있는 단백질에 대한 예측이 더 신뢰할 수 있는 것으로 간주됩니다. 그러나 케임브리지 근처의 EMBL European Bioinformatics Institute(EMBL-EBI)의 전 이사인 Janet Thornton은 그 신뢰성이 항상 향상되고 있으며 약물 설계자가 그것을 사용하는 것을 막을 이론의 부족이 아니라고 말했습니다. "AlphaFold가 하는 일은 발견이기도 합니다. 그리고 그것은 삶과 치료법에 대한 우리의 이해를 향상할 뿐입니다."다른 사람들은 과학이 향하고 있는 방향에 대해 분명히 덜 편안합니다. 예를 들어 비평가들은 신경망이 특히 훈련된 데이터 세트가 작은 경우 잘못된 상관관계를 나타낼 수 있다고 지적합니다. 과학자들은 데이터를 고르거나 중립적으로 수집하지 않고 항상 특정 가설이나 가정을 염두에 두고 Google과 Amazon의 AI에 해로운 영향을 미치기 때문에 모든 데이터 세트는 편향되어 있습니다. University of Exeter의 과학 철학자 Sabina Leonelli는 다음과 같이 설명합니다. "우리가 사용하는 데이터 환경은 엄청나게 편향되어 있습니다." 그러나 이러한 문제가 분명히 존재하지만 Dayan은 극복할 수 없다고 생각하지 않습니다. 그는 인간도 AI와 달리 "심문하거나 수정하기가 매우 어려운 방식으로" 편향되어 있다고 지적합니다. 궁극적으로 이론이 AI보다 덜 신뢰할 수 있는 예측을 생성한다면 기계가 둘 중 더 편향되어 있다고 주장하기 어려울 것입니다. 새로운 과학에 대한 더 어려운 장애물은 원인과 결과의 관점에서 이야기하기 위해 세상을 설명하려는 인간의 욕구일 수 있습니다. 2019년 시애틀의 워싱턴 대학의 신경과학자 빙니 브런튼과 마이클 베일러는 해석 가능성에 대한 이러한 필요성 때문에 과학자들이 대규모 데이터 세트에서만 나오는 종류의 뇌에 대한 새로운 통찰력을 얻지 못했을 수 있다고 썼습니다. 그러나 그들도 동정했다. 이러한 통찰력이 약물 및 장치와 같은 유용한 것으로 번역되려면 "전산 모델이 임상의, 최종 사용자 및 업계가 설명할 수 있고 신뢰할 수 있는 통찰력을 산출하는 것이 필수적입니다"라고 썼습니다. 해석 가능성의 격차를 해소하는 방법을 다루는 " 설명 가능한 AI "가 뜨거운 주제가 되었습니다. 그러나 그 격차는 더 커질 뿐이며 대신 절충에 직면할 수 있습니다. 해석 가능성을 위해 얼마나 예측 가능성을 기꺼이 포기할 수 있습니까? New York University에서 의료 분야에 머신 러닝을 적용하는 것에 대해 생각하는 AI 과학자인 Sumit Chopra는 MRI 이미지의 예를 제시합니다. 이러한 이미지를 생성하려면 많은 원시 데이터가 필요하므로 스캔 시간이 필요합니다. 예를 들어 암을 정확하게 감지하는 것이 목표인 경우 해당 데이터를 가장 잘 사용하는 것은 아닙니다. 다른 방법으로 검증된 것처럼 원시 데이터의 작은 부분이 정확한 진단을 생성하기에 충분한지 식별하도록 AI를 훈련할 수 있으며 실제로 Chopra의 그룹이 그렇게 했습니다. 그러나 방사선 전문의와 환자는 여전히 이미지에 집착합니다. "우리 인간은 눈으로 해석할 수 있는 2D 이미지가 더 편안합니다."라고 그는 말합니다. 후기 이론과학에 대한 마지막 반대는 유용한 구식 이론, 즉 개별 사례에서 추출한 일반화가 여전히 남아 있을 가능성이 있으며 직관이 필요하기 때문에 인간만이 할 수 있다는 것입니다. 다시 말해, 일반 규칙과 관련된 사례의 속성에 대한 일종의 본능적 귀환이 필요합니다. 우리가 뉴턴을 훌륭하다고 생각하는 한 가지 이유는 그의 제2법칙을 제시하기 위해 그가 일부 데이터를 무시해야 했기 때문입니다. 예를 들어, 그는 공기 저항의 간섭 효과가 없는 진공 상태에서 물건이 떨어지고 있다고 상상해야 했습니다. 지난달 독일 보훔 루르대학교의 수학자 크리스티안 스텀프(Christian Stump)는 네이처 (Nature )에서 이 직관적인 단계를 “창의적 과정의 핵심”이라고 불렀다. 그러나 그가 그것에 대해 글을 쓰는 이유는 AI가 처음으로 그것을 해냈다는 것입니다. DeepMind는 기계 학습 프로그램을 구축하여 수학자들이 매듭 수학에서 새로운 통찰력, 즉 새로운 일반화를 하도록 유도했습니다. 따라서 2022년에는 AI가 발자국을 남기지 않은 과학적 과정의 단계가 거의 없습니다. 그리고 우리가 그것을 지식 탐구에 더 많이 끌어들일수록 그 탐구는 더 많이 바뀝니다. 우리는 그에 따라 사는 법을 배워야 하지만 한 가지에 대해 스스로를 안심시킬 수 있습니다. 우리는 여전히 질문을 하고 있습니다. 1960년대에 파블로 피카소가 말했듯이 “컴퓨터는 쓸모가 없습니다. 그들은 당신에게 답을 줄 수 있을 뿐입니다.”제목은 Computing Machinery and Intelligence였습니다. 그리고 그 책에서 Turing은 소위 기계 학습이라고 하는 우리 시대의 센세이션을 포함하여 인공 지능(AI)의 학문 분야가 된 많은 핵심 아이디어를 소개했습니다. 이 놀라운 텍스트에서 Russell은 한 가지 극적인 인용문을 가져왔습니다. 따라서 어느 단계에서는 기계가 제어할 것으로 예상해야 합니다.” Bletchley Park에서 Turing의 동료 중 한 명인 IJ Good은 이 생각을 더욱 강력하게 표현했습니다. 제어." Russell은 AI에 대한 강의를 하기로 한 영감을 받은 선택이었습니다. 왜냐하면 그는 동시에 해당 분야의 세계적인 리더(Peter Norvig와 함께 표준 교과서 인 Artificial Intelligence: A Modern Approach의 공동 저자 ) 이자 "지능형" 기계를 구축하는 현재의 접근 방식은 매우 위험합니다. 이는 그가 이 분야의 지배적인 지능 개념(행동이 주어진 목표를 달성하기 위해 예상할 수 있는 정도)을 치명적인 결함으로 간주하기 때문입니다. AI 연구원은 기계를 만들고 특정 목표를 부여하고 목표 달성의 성공 여부에 따라 기계가 어느 정도 지능적이라고 판단합니다. 이것은 아마도 실험실에서 괜찮을 것입니다. 그러나 Russell은 다음과 같이 말합니다. 실제로 속도, 승객 안전, 양 안전, 합법성, 편안함, 공손함의 균형을 맞추는 것과 같은 자율 주행 자동차의 다른 목표를 정의하는 것은 매우 어려운 것으로 판명되었습니다.” 그것은 정중하게 표현하지만, 점점 더 유능하고 무자비하며 한결같은 기계와 인간 사회의 중요한 지점에 유비쿼터스 설치의 개발을 주도하는 거대 기술 기업을 괴롭히는 것 같지 않습니다. 이것은 Russell이 자신의 규율이 현재의 길을 계속해서 초지능적인 기계를 만드는 데 성공한다면 두려워하는 디스토피아적인 악몽입니다. 이것은 철학자 Nick Bostrom의 "paperclip apocalypse" 사고 실험에 암시되어 있고 Universal Paperclips 컴퓨터 게임에서 재미있게 시뮬레이션된 시나리오입니다. 물론 이는 기술 업계와 AI 연구원 모두가 믿을 수 없고 경계심이 강한 것으로 진심으로 조롱을 받고 있습니다. 이 분야의 한 전문가는 그가 화성의 인구 과잉에 대해 초조해하는 것과 같은 방식으로 초지능적인 기계에 대해 걱정한다고 농담으로 유명했습니다. 그러나 초지능적인 기계가 지배하는 세상에서 사는 것이 "내 평생에 없을 것"이라고 생각하는 사람에게 유익한 생각이 하나 있습니다. 우리는 이미 그런 세상에 살고 있습니다! 문제의 AI를 기업이라고 합니다. 그들은 그들이 고용하는 인간의 집단 IQ가 일반 사람들, 그리고 실제로 종종 정부의 IQ를 왜소하게 만든다는 점에서 분명히 초지능적입니다. 그들은 엄청난 부와 자원을 가지고 있습니다. 그들의 수명은 단순한 인간의 수명을 훨씬 능가합니다. 그리고 그들은 하나의 최우선 목표를 달성하기 위해 존재합니다. 즉, 주주 가치를 높이고 극대화하는 것입니다. 그것을 달성하기 위해 그들은 윤리적 고려, 사회, 민주주의 또는 지구에 대한 부수적 피해에 관계없이 필요한 모든 것을 가차 없이 할 것입니다. 그러한 초지능적인 기계 중 하나가 Facebook이라고 합니다. 그리고 마지막 요점을 설명하기 위해 2016년 6월 18일 최고 경영진 중 한 명인 Andrew Bosworth가 쓴 가장 중요한 목표에 대한 명확한 진술입니다. “우리는 사람을 연결합니다. 기간. 이것이 우리가 성장을 위해 하는 모든 작업이 정당화되는 이유입니다. 모든 의심스러운 연락처 수입 관행. 사람들이 친구의 검색 가능성을 유지하는 데 도움이 되는 모든 미묘한 언어입니다. 더 많은 의사소통을 위해 우리가 해야 하는 모든 작업. 언젠가는 중국에서 해야 할 작업입니다. 그것의 모든." 윌리엄 깁슨(William Gibson)이 유명하게 말했듯이 미래는 이미 와 있습니다. 단지 고르게 분포되어 있지 않을 뿐입니다.


loading