라고 쓰면 이른바 제목으로 낚시를 하는 것으로 생각될수 있습니다
ㅋㅋ
한번 들어보실까요?
실리콘 밸리의 성공담은 책으로도 나오고 성공한 회사의 일반화된
성공담은 많은 회사들에서 도입하곤 합니다
그러나 실제로 성공 요인만 볼뿐 어떤 부분에서 실패를 해서
그로인해 저 성공까지 이르렀는지를 이야기하지는 않습니다
성공한 사람들을 무작정 따라하면서 발생하는 문제를
'생존자편향(Survivorship Bias)의 오류'라고 부릅니다
이 생존자 편향의 오류는 2차세계대전 당시 미군이 전투기의
피격율을 줄이기 위해 전투에서 살아돌아온 전투기들을
대상으로 분석에 들어갔습니다
대부분은 날개와 꼬리 부분에 탄흔이 집중돼 있었고
따라서 총탄이 집중됐던 날개와 꼬리 부분을 장갑 등으로
보완하면 전투에서 살아남을 가능성이 크다고 판단했지요
하지만 대공포는 어디를 노려서 집중적으로 쏘는 것이 아니라
탄막을 형성해서 그중 한방이라도 맞혀서 비행기를 추락시키는
그런 무기라서 기체의 전 부분이 같은 확률로 총탄에 맞을 확률을
가지게 됩니다
물론 대공포는 아래에서 날아오니까...
기체의 위쪽부분에 맞을 확률은 낮겠지만요...
비행기에 너무 두꺼운 장갑을 붙이면 연료 효율이
떨어지고 폭탄을 많이 탑재할수 없기 때문에
장갑은 적절하게 중요 부분에만 배치가 되어 있습니다
한발만 맞아도 폭발하는 곳은 보호해야겠죠?
하여간....
분석한 사람들은 총탄을 맞은 위치를 기준으로
날개와 꼬리 부분을 장갑 등으로 보완하면 좋겠다고
보고서를 내게 됩니다
그때 통계학자인 아브라함 발트(Avraham Wald)에게
넘어온 질문은 '(이미 보완할 곳은 결정되어있는데)
비행기의 취약부를 장갑으로 보완을 하려고 하는데
어느정도의 장갑량을 추가하는것이 좋은가'라는
과제였다고 합니다
아브라함 발트는 그 질문에 문제가 있다고 이야기 합니다
모든 피격기중 오직 살아온 비행기의 데이터만으로
장갑의 위치를 결정하는 것은 잘못된것으로 실제
보강해야 할 위치는 엔진과 조정석 같은 핵심적인
위치라고 이야기를 했지요
즉 꼬리나 날개같은 부분에 맞은 비행기는 살아
돌아왔지만 엔진이나 조정석에 맞은 비행기는 살아
돌아오지 못해서 자료에 없는것이다라는 것이라서
거기에서 나온 이야기가 생존자 편향(Survivorship Bias)
의 오류입니다
여기에서는 정보가 편향된 이유가 수집된 정보가 생존자
의 항공기에서 얻은 자료에서 나온것이라서 그런것이였죠
최근 AI 관련한 기사에서 머신러닝의 데이터가 편향되었을
경우 AI가 편향된 차별적 인식을 가지게 된다는 내용도
있었죠
인종차별이나 남녀차별, 여러가지 차별요소들이 개입될 경우
그런 내용들이 쌓여서 완성된 AI도 차별을 하게 된다는 거죠
사람도 똑같습니다
사전에 우리가 이미 알고 있고 이미 가지고 있는 편견같은
그런 부분에 대한 편향도 있는데요
확증 편향(confirmation bias) 이란건데요
보통 사람들은 자신이 기존에 믿는 바에 적합한 정보만
받아들이려 합니다
자기 생각에 어긋나는 정보는 거부하는 편향을 말합니다
즉 나와 반대 진영의 사람이 무슨 이야기를 해도 다
거짓말처럼 들리고 절대로 믿지않는다는 이야기죠
'사람은 누구나 모든 현실을 볼 수 있는 것은 아니다.
대부분의 사람은 자기가 보고 싶은 현실만 본다.'
(율리우스 시저가 말했던가?)처럼
SNS가 나오기 전에도 사람들은 믿고 싶은것만 믿었지요
하지만.....
과거에는 전파력이 약해서 가짜뉴스가 나와도 이른바
내부에서만 통용되거나 나왔다가도 언론사의 팩트체크에 의해
사라지곤 했는데
지금은 SNS의 영향력이 엄청나고 속도도 빠르게 퍼져버리면서
팩트체크가 되지않은 정보들이 전달되고 있는데요
특히 유튜브 페이스북 같은 인터넷 정보제공 사업자가 이용자
맞춤형 정보를 제공하면서 이용자는 제 입맛에 맞게 ‘걸러진
정보’만 접하게 되는 문제가 생겨버렸죠
최근에는 네이버도 ai가 추천해준 뉴스를 제공하고 있고
대부분의 포털이 인력이 아닌 ai의 알고리즘을 이용하고
있습니다
문제는 알고리즘을 이용해서 사용자의 정보에 따라 추천
하다보니 딱 보고 싶은 정보, 내가 좋아하는 정보, 그리고
내가 보기 싫은 뉴스는 빼고 추천하니.....정치ㆍ사회적
이슈에서 자신의 고정관념과 편견만 더 강화하게 되는
현상이 발생하게 되는겁니다
즉 유튜브에서 내가 오늘 ***라는 정부를 까는 영상을
봤다고 하면... 내일도 정부를 까는 영상을 추천해줄꺼고
모래도 그 다음날도 정부를 까는 영상만 추천해줍니다
내가 좋아하는 영상이기 때문이죠(누가 강요한건 아닌데?
너의 선택이야!!)
하지만... 이런 편향적인 추천은 결국 문제가 있습니다
진보적 성향을 가진 페이스북 '피드'에는 보수적 게시글이
올라오지 않죠
진보쪽은 그쪽 정보만 보고
보수는 보수적인 정보만 보는데... 그게 사실이건 아니건
원하는것만 보게 된다는거죠
포털에서 의도하지 않았더라도 필터 버블(filter bubble)은
발생할수 있게 됩니다
필터버블은 개인화된 검색의 결과물의 하나로, 사용자의
정보(위치, 과거의 클릭 동작, 검색 이력)에 기반하여
웹사이트 알고리즘이 선별적으로 어느 정보를 사용자가
보고싶어 하는지를 추측하 사용자들이 자신의 관점에
동의하지 않는 정보로부터 분리될 수 있게 하면서
자신만의 문화적, 이념적 거품에 가둘 수 있게 하게 됩니다
즉 유튜브나 페이스북 네이버도 마찬가지로 알고리즘에
의한 추천은 저런 개인화를 통해 사회적인 갈등을 더
증대시키게 된다는 문제를 가지고 있습니다
과연....
알고리즘에 의한 추천이 공정한지에 대한 부분은....
생각해봐야 할것 같은데요
포털에서 암호화폐에 대한 검색을 자주하면 거기에
대한 뉴스가 자주 추천됩니다
그러다보면 세상에 이렇게 뉴스가 많이 나오는데
암호화폐가 대세 아니야? 라면서 존버를 외치게
되는 경우도 있습니다
실제로 코인쪽 검색을 안하는 사람의 경우 그런
뉴스가 전혀 없기 때문에 도대체 무슨 근거로 그런
헛소리를 하는거냐? 라면서 폰지사기라며
무시를 하기도 합니다
우리가 매일 유튜브를 보면서 인공지능이
추천하는 영상을 본다는것은 자신이 만든
커다란 거품의 필터속에 갖혀버리는건 아닌지
한번 생각해봐야겠습니다