본문 바로가기
글 Writing/의견 Opinion

인공지능 세상에서는 차별이 없을까? Can There Be No Discrimination In The Artificial Intelligence World?

by Deposo 2020. 7. 5.

눈에 띄는 첨단 기술들 High-Tech Features That Stand Out

   조지 플로이드의 안타까운 죽음으로 인종차별 논란이 거세다. 그런데 문득 가까운 미래에 많은 사람들이 지금의 세상을 그리워할지도 모른다는 엉뚱한 생각이 들었다. 서늘한 두려움이 스쳐갔다.

   정상적인 뇌를 장착한 모든 인류의 지적 능력을 합친 것보다 더 뛰어난 초인공지능 ("초인종기능"이라고 읽은 사람 꼭 있다.)이 나타나는 시점을 "기술적 특이점 (Technological Singularity)"이라고 한다. 대략 2040년쯤일 거라고 짐짓 전문적으로 고심한척 넘겨 집고 있다. 스티븐 호킹, 닉 보스트롬, 일런 머스크와 빌 게이츠 (2015년에는 큰 위협이 될 것이라고 설레발 치더니 2019년부터는 양날의 검이라며 투자를 하겠다는 등 긍정적인 면을 더 언급하고 있음. 왜 이럴까?) 등이 인공지능의 잠재적 위협에 대해 적극적으로 경고를 했다. 

   While the tragic death of George Floyd has sparked controversy over racism, suddenly, I had the weird idea that many people might miss the world now in the near future. Some fright flashed through me.

The point at which super-artificial intelligence appears is called "Technological Singularity." It is being assumed that it will come at some point in 2040 by people who are pretending to be very professional. Some famous people such as Stephen Hawking, Nick Bostrom, Elon Musk, and Bill Gates (He used to claim until 2015 that AI would be a big threat. But from around 2019, he changed view on AI to be more positive aspects and even mentioned about investing on it. What happened to him?) actively warned against potential threats from artificial intelligence. 

   일런 머스크는 테슬라 자동차 개발에 전력을 기울이는 한편, 인간의 뇌와 컴퓨터를 연결하는 뉴럴링크 프로젝트도 진행 중이다. 컴퓨터의 데이터를 뇌에 업로드하고, 사람의 생각을 컴퓨터로 다운로드 하는 양방향 데이터 통신의 구현이 목표다. 현재 원숭이를 대상으로 실험을 진행 중이라고 한다. 뉴럴링크로 보면 그 어떤 공부도 할 필요가 없다. 어떤 데이터든 머리에 다운 받으면 끝이다.

   우주 여행 및 운송 사업인 스페이스 엑스 프로젝트도 하고 있다. 깊은 땅속에 진공 튜브를 파이프 처럼 설치하고, 이 속에서 운송수단이 되는 캡슐을 시속 1,300 킬로미터 정도의 속도 (대략 서울에서 부산까지 20분이면 도착)로 운행하는 하이퍼루프라는 프로젝트도 진행하고 있다. 이 사람 참 여러가지 한다. 인간이 아닌것 같다. 혹시 인공지능이 아닐까.

   나중에 어떤 일들이 벌어질까? 초인공지능이 구축한 일단의 시스템 집단과 뉴럴링크로 무장된 인간들 사이의 전쟁이 일어날까? 터미네이터 세상이 펼쳐질지도 모를 일이다. 진짜로.

   Elon Musk is focusing on developing Tesla cars, while also working on a project of "Neuralink" to connect the human brain with computers. The goal is to implement two-way data communication that uploads data from computers to the brain and downloads human thoughts to computers. It is said that experiments are currently underway on monkeys. There is no need to study anything in the context of the "Neuralink". If you download any data to your head, you're done.

   He is also working on Space X Project, a space travel and transportation business. And he is also working on a project called "Hyperloop", which installs a vacuum tube deep in the ground like a pipe, and runs a capsule that can be transported at a speed of 1,300 kilometers per hour (approximately 14 minutes from Calgary to Edmonton AB.). He does fucXing many things. I don't think he's a human. He literally looks like a humanoid.

   What will happen later? Will there be a war between a group of systems built by super artificial intelligence and humans armed with "Neuralink"? The Terminator world may unfold. Really!

차별과 갈등을 치유하는 인간들의 방법 The ways of humans to heal discrimination and conflict.

   인종 차별은 어느 한 인종만의 문제는 아니다. 차별을 받는 대상이 차별을 하는 주체가 되기도 한다. 때로 차별의 주체로 알려진 사람들이 역차별의 희생양이라고 호소하기도 한다. 인종 차별 외에도 여러가지 형태의 차별이 거의 모든 곳에 존재한다. 가정, 학교, 회사, 종교 단체, 국가 등 어디 한군데 차별이 없는 곳이 없다. 둘째라서, 여자라서, 공부를 못해서, 키가 작아서, 체중이 무거워서, 외모가 번듯하지 못해서, 돈이 없어서, 외국인 노동자라서 겪은 크고 작은 차별들. 차별이라고 생각해보지도 못한 생활속의 친근한 차별들도 숱하다. 차별하면서 그것을 구별 또는 변별이라고 부르기도 한다.

   Racism is not just a matter of one race. The victim of discrimination can also be the subject of discrimination. Sometimes people known as the main agents of discrimination complain that they are victims of reverse discrimination. Apart from racial discrimination, various forms of discrimination exist almost everywhere. There is no place without discrimination, such as home, school, company, religious organization, or country. There are many different reasons. One has been suffered from big and small discrimination since one is a second child, one is a woman, one doesn't like to study, one is not tall enough, one is curvy, one doesn't look cool, one has not enough money, one is a foreign worker. There are also many friendly discrimination in life that we have never thought of as discrimination. We discriminate something and call it distinction or distinguishing.

   모두 이해와 배려의 부족에서 오는 것이라고 생각된다. 몇몇 사람에게서 받은 인상으로 그들이 속한 국가나 종교 또는 문화 전체를 판단하는 경우도 그렇다. 제한적 경험으로 전체를 판단하는 일반화의 오류다. 그런데 이러한 인간적인 오류는 또한 인간적인 배려와 공감으로 극복될 수 있는 문제에 불과하다. 이기적이고, 잔인하고, 사악한 모습들은 또 헌신적이고, 지혜로우며 희생과 사랑이 넘치는 위대함으로 치유된다. 

   I think it all comes from a lack of understanding and consideration. We simply judge country, religion, or culture whether it is good or bad according to impression that picked up from very limited people in those territories. It is the fallacy of generalization that judges the whole through limited experience. But this human error is also nothing but a problem that can be overcome with human consideration and empathy. Selfish, cruel and evil figures can be healed by devotion, wisdom, and greatness full of sacrifice and love.

차별이, 대립과 갈등이 더 쉽게 치유되는 세상이 올까? Will discrimination, confrontation and conflict be healed more easily in the future?

   초고속으로 발전하는 인공지능의 능력과 효율성은, 곧 사회 전반에서 활용될 것이다. 거대한 빅데이터를 통해 성장해 온 인공지능의 빈틈 없는 통제 아래에서, 오류 수정과 갈등 해소의 과정이 가능할지는 미지수다. 빅데이터에는 사랑, 정의, 공정, 평화, 화합, 풍요와 같은 긍정적인 개념만 있는 것이 아니다. 증오, 불의, 전쟁, 대립, 빈곤과 같은 부정적인 개념도 가득하다. 스탠리 큐브릭 감독의 영화 "2001 스페이스 오딧세이"에 나오는 인공지능 "할 HAL"이 스스로 생각하고 판단하기 시작하면서부터 무서운 일들이 발생한다. 이 영화가 1968년에 제작되었다는 사실만으로 거품 물고 쓰러질만한데, 그 때 이미 인공지능의 잠재적 위협을 연출 했다는 것도 정말 놀랍다. 이 사람도 (그리고 각본 작업에 함께 참여한 아서 클라크 작가도) 인간이 아닌듯 하다.

   The ability and efficiency of super-high growth artificial intelligence will soon be utilized throughout the world. Under the tight control of artificial intelligence, which has grown through massive big data, it is yet to be known whether the process of correcting errors and resolving conflicts will be possible. Big data is not just about positive concepts such as love, justice, fairness, peace, harmony and abundance. Negative concepts such as hatred, injustice, war, confrontation, and poverty are also full in there. Scary things happened when the artificial intelligence "HAL" in Stanley Kubrick's 2001 Space Odyssey began to think and judge for itself. The fact that the film was produced in 1968 is incredible, and it's amazing that it has already showed the potential threat of artificial intelligence. Neither this person (and Arthur Clarke, who also participated in the screenplay) seems to be human.

   아이언맨에 나오는 인공지능 비서 "자비스"와 같이 긍정적인 측면의 기능도 분명 있다. 하지만 완전하지 못한 인류가 완전한 시스템을 구축하기는 불가능하지 않을까. 그 불완전한 시스템이 상상할 수 없이 강력하면서, 오류 수정의 길이 차단되어 있다면 인류에게 엄청난 재앙을 안겨줄 것이다. 인간들끼리 해결할 수 있었던 문제들이, 자신들의 편리를 위해  만들어진 도구에 의해 좌지우지 되는 처지가 될지도 모른다.

미래에는 차별이, 대립과 갈등이 더 쉽게 치유되는 세상이 올까?

   There is certainly a positive side of the function, such as the artificial intelligence secretary "Javis" in Iron Man. But wouldn't it be impossible for incomplete human beings to build a complete system? The imperfect system is unimaginably powerful, and if the path to error correction is blocked, it would bring a tremendous disaster to mankind. Problems that humans have been able to solve may be pushed around by the tool made for humans' own convenience.

Will discrimination, confrontation and conflict be healed more easily in the future?

참고 자료

 

'글 Writing > 의견 Opinion' 카테고리의 다른 글

코로나19에 대한 나쁜 소식  (0) 2020.09.11
조금 무거운 메리 크리스마스  (0) 2020.09.10
먹고 살기가 어려워진 이유  (0) 2020.08.21
션 전액기부를 보고  (2) 2020.08.01

댓글