데이터분석

실전 금융 머신러닝

장수우 2026. 2. 2. 23:18

안녕하세요 이번에 접하게 된 책인 Advances in Financial Machine Learning 을 읽고 느낀 부분이나 기록하면 좋을 부분과 새로 검색해 알게된 내용을 소개하겠습니다.

사일로(Silo) 아키텍처의 구조적 분석과 한계 : 토너먼트 모델의 붕괴

1.1-1 역사적 배경과 사일로 모델의 정의

금융 투자 산업, 특히 헤지펀드 업계는 오랜 기간 스타 매니저 중심의 사일로 구조를 유지해 왔습니다. 이 구조아래 개별 포트폴리오 매니저(Portfolio Manager, PM)는 하나의 독립된 사업 단위 처럼 기능합니다. 회사는 PM에게 자본, 사무 공간, 기본적인 데이터 접근 권한, 법적 컴플라이언스 인프라를 제공하는 플랫폼 역할만을 수행합니다. 대신 PM은 투자 아이디어의 생성부터 데이터 정제, 모델링, 백테스트, 그리고 최종적인 주문 실행에 이르는 투자의 전 과정을 독자적 or 소규모 팀과 함께 수행해야합니다. 

이런 구조는 밀레니엄 매니지먼트(Millennium Management)나 시타델(Citadel)과 같은 멀티 매니저 플랫폼(Multi-Manager Platform)에서 극대화되었습니다. 이런 기업은 수백 개의 독립적인 팀(Pod)을 운영하며, 각 팀의 성과(P&L)에 따라 자본을 동적으로 배분합니다. 성과가 좋은 팀은 더 많은 자본과 보너스를 받고, 성과가 저조한 팀은 가차 없이 퇴출당하는 이 시스템은 다원주의적 '토너먼트' 모델로 불리면서, 생존한 팀드르이 성과 합이 곧 회사의 성과가 됩니다.

 

1.1-2 사일로 모델의 지속 요인과 착시 현상

  • 관리의 용의성 :
     경영진 입장에서 수백 명의 퀀트 연구원들의 세부적인 연구 과정을 일일이 감독하는 것은 불가능에 가깝습니다. 대신 각 사일로의 P&L 이라는 단일 지표로 성과를 측정하고 보상하는 방식은 경영 효율성을 극대화 합니다. 잘하는 만큼 벌어가는 보상 체계는 강력한 동기부여 수단으로 작용합니다.
  • 다각화(Diversification)의 환상 :
    이론적으로 서로 소통하지 않는 많은 팀들이 각자 다른 전략을 개발한다면, 이들의 수익 흐름은 상관관계가 낮아야 합니다.
    이런 방식은 포트폴리오 이론상 위험을 분산시키는 최적의 구조로 여겨졌습니다.
  • 지적 재산권의 격리 : 
    개별 PM이 퇴사하더라도 해당 사일로만 폐쇄하면 되므로, 회사 전체의 리스크로 전이되지 않는다는 인식이 있었습니다. 또한, PM들 간의 정보 차단은 내부 정보 유출을 막는 보안 장치로 기능하기도 했습니다.

1.1-3 머신러닝 시대에서의 구조적 실패 요인

그러나 이 책은 이러한 사일로 구조가 현대의 금융 머신러닝 환경에서는 필연적으로 실패한다고 주장합니다.

그 이유는 금융 머신러닝의 본질적인 복잡성과 데이터 의존성 때문입니다.

  • 업무의 전문화 부재 :
    현대의 퀀트 투자는 고도의 데이터  엔지니어링, 특성 공학, 머신러닝 모델링, 고성능 PC관리가 결합된 융합 과학입니다. 그러나 사일로 모델은 소수의 인원에게 이 모든 과정을 완벽하게 수행할 것을 요구합니다. 한 명의 연궁원이 데이터 정제 전문가 이자, 네트워크 아키텍트이며, 동시에 파생상품 트레이더가 될 수는 없습니다. 결국 사일로 내의 연구원들은 표준화된 도구(Scikit-learn 등)와 정제되지 않은 데이터를 사용해 '장난감 모델'을 만드는데 그치게 됩니다.
  • 다각화의 실패 :
    사일로 구조 하의 PM들은 서로 격리되어 있지만, 아이러니하게도 모두 동일한 데이터 벤더(Vendor)로부터 동일한 데이터를 구매하고, 동일한 오픈 소스 라이브러리를 사용합니다. 그 결과, 수십 개의 팀이 서로 다른 사무실에서 동일한 팩터(Factor)와 전략을 중복 발견하게 됩니다. 시장이 평온할 때는 이들이 다각화 되는 것처럼 보이지만, 2007년 퀀트 대폭락이나 2020년 코로나 위기 시에는 모든 사일로의 전략이 동시에 붕괴되는 높은 상관관계를 보이게 됩니다.
  • 지적 재산권의 휘발성 :
    사일로 모델에서 전략에 대한 모든 지식은 PM의 머릿속이나 개인적인 코드 저장소에 존재합니다. PM이 더 좋은 조건을 제시하는 경쟁사로 이직할 경우, 회사는 해당 전략의 디테일을 잃게됩니다. 이는 회사가 장기적인 연구 역량이나 제도적 기억(Institutional Menory)을 축적하지 못하고, 매번 새로운 PM을 영입해 처음부터 다시 시작해야 하는 비효율적인 순환을 초래합니다.
비교 항목 사일로(토너먼트) 모델 팩토리(공장) 모델
운영 주체 개별 PM / 소규모 팀 회사 전체 / 중앙화된 연구소
업무 범위 데이터~실행 전 과정 (Full Stack) 세분화된 전문 영역 (Specialized)
보상 체계 개별 P&L 연동 (Silo Profit) 회사 전체 성과 연동 (Firm Profit)
지적 재산권 PM 개인에게 귀속 (이직 시 유출) 회사 시스템에 귀속 (영구 보존)
전략 상관성 높음 (중복 발견, 군집 행동) 낮음 (직교하는 알파 추구)
주요 리스크 과적합(Overfitting), 인력 유출 관료제화, 조정 비용

1.2-1. 복잡성의 딜레마와 역량의 한계

재량적 트레이딩은 인간의 직관과 경험, 그리고 거시경제적 통찰에 의존합니다. 폴 튜더 존스(Paul Tudor Jones)와 같은 전설적인 트레이더들은 소수의 팀원과 함께 시장의 심리를 읽고 과감한 베팅을 통해 성공을 거두었다. 이 과정은 고도의 지적 능력을 요구하지만, 기술적으로 복잡한 인프라를 필수적으로 요구하지는 않았습니다.

 

반면, 금융 머신러닝은 본질적으로 산업공학(Industrial Engineering)의 영역입니다. 의미 있는 신호를 찾기 위해서는 페타바이트(Petabyte) 규모의 비정형 데이터(text, 위성 이미지, 틱 데이터 등)을 처리해야 하며, 이를 위해서는 클라우드 컴퓨팅, 병렬 처리, DB 최적화 등의 기술이 필요합니다. 사일로 구조의 소규모 팀은 이런 인프라 구축 및 유지보수할 자원과 시간이 부족합니다.

 

따라서 사일로 퀀트들은 복잡한 문제를 단순화하려는 유혹에 빠지게 됩니다. 예로, 데이터의 비정상성을 정밀하게 처리하기보단 단순히 차분해 메모리를 날려버리거나, 표준화된 리스크 모델을 무비판적으로 사용해 실제 시장의 꼬리 위험(Tail Risk)을 과소평가합니다. 이는 기술적 부채(Techical Debt)를 누적시키고, 결국 시장 충격 시 시스템이 오작동하는 원인이 됩니다.

 

1.2-2. 구조적으로 강요된 과적합(Incentivized Overfitting)

사일로 모델의 가장 치명적인 결함은 과적합을 구조적으로 장려한다는 점입니다. 토너먼트 시스템에서 PM의 생존과 보상은 오로지 백테스트 결과와 단기적인 실적에 달려있습니다. 다양한 과학적 방법론을 적용한 결과 유의미한 신호가 없다라고 보고하면 해고될 확률이 높아진다는 것이죠

 

사일로 내의 연구원들은 소위 P-해킹(P-hacking)이나 데이터 준설(Data Dredging)을 수행하게 됩니다. 이들은 수천, 수만 가지의 변수 조합을 시도하며, 우연히 과거 데이터에서 수익이 나는 패턴을 찾아낼 때까지 백테스트를 반복합니다. 통계적으로 5%의 유의수준 하에서는 20번의 독립적인 테스트 중 1번은 우연히 유의미한 결과를 보일 수 밖에 없습니다.

 

사일로 모델은 이런 거짓 양성(FP)을 걸러낼 수 있는 내부 감시 장치가 부족합니다. PM은 수천 번의 실패한 시도는 숨기고, 성공한 단 하나의 백테스트 결과만을 경영진에게 보고합니다(선택 편양). 경영진은 이 전략이 실제 전략인지, 아니면 과적합의 결과인지 판단할 수 있는 정보가 없으므로 자금은 배분하게 되고, 이 전략은 실제 시장에서 필연적으로 손실을 기록하게 됩니다.

로페즈 데 프라도는 이를 "금융 돌팔이 행위(Financial Charlatanism)"라고 강하게 비판합니다.

 


 

1.3-1. 팩토리 모델의 구조와 철학

팩토리 모델은 르네상스 테크놀로지, D.E, Shaw, Two Sigma와 같은 최상위 퀀트 펀드들이 채택하고 있는 방식입니다.

이 모델의 핵심 철학은 투자를 예술이 아닌 과학이나 재조업으로 바라보는 것입니다. 자동차 공장이 엔진, 차체, 전자장비 조립 라인으로 나뉘어 있듯, 투자 프로세스도 고도로 전문화된 단계로 분업화됩니다.

  • 데이터 큐레이터(Data Curators):
    원시 데이터를 수집, 정제, 구조화하여 고품질의 데이터셋을 만듭니다. 이들은 모델을 만들지 않고, 오직 데이터의 무결성(Integrity)과 포인트-인-타임(Point-in-Time) 정확성을 보장하는 데 집중합니다.
  • 특성 분석가(Feature Analysts):
    정제된 데이터를 바탕으로 경제적, 통계적 의미가 있는 특성이나 신호를 추출합니다. 최종 포트폴리오의 성과를 직접 보지 못할 수도 있으며, 오직 신호의 예측력 향상에만 주력합니다.
  • 전략 모델러(Strategy Modelers):
    머신러닝 알고리즘을 선택하고, 학습시켜 특성을 수익 예측으로 변환합니다.
  • 백테스터(Backtesters):
    독립된 부서로서, 모델러가 만든 전략을 엄격한 기준(홀드아웃 데이터, 교차 검증 등) 하에 테스트합니다. 이들은 모델의 승인 여부를 결정하는 품질관리(QC) 역할을 수행하며, 연구원들의 과적합 시도를 차단합니다.
  • 포트폴리오 최적화(Portfolio Optimizers):
    수많은 모델에서 나온 예측치를 통합해, 거래 비용과 리스크 제약을 고려한 최적의 포트폴리오를 구성합니다.

1.3-2. 메타 전략(Meta-Strategy)으로서의 시스템

팩토리 모델에서 회사가 투자하는 대상은 개별 전략(ex: 200일 이평선 돌파)이 아니라, 그런 전략을 끊임 없이 생산해내는 시스템 그 자체, 메타 전략입니다. 개별 전략은 시장 상황에 따라 수명이 다할 수 있지만, 전략을 연구하고 검증하며 배포하는 파이프라인은 지속적으로 가치를 창출합니다.

 

1.3-3. 리스크 완화와 경쟁 우위

이런 분업화 구조는 사일로 모델의 어려 리스크를 효과적으로 완화합니다.

  • 과적합 방지:
    전략을 만드는 사람(모델러)과 이를 검증하는 사람(백테스터)이 분리되어 있어, 연구원이 자신의 보너스를 위해 백테스트를 조작하려는 유인이 차단됩니다.
  • 협업과 집단지성:
    팩토리 모델에서는 특정 PM이 모든 수익을 독식하지 않고, 회사의 전체 성과에 따라 보상을 받습니다. 이는 연구원들이 서로의 코드를 리뷰하고, 아이디어를 공유하며, 문제를 함께 해결하는 협업 문화를 조성합니다. D.E.Shaw나 르네상스 테크놀러지의 성공 비결중 하나는 이런 개방적인 연구 환경입니다.
  • 규모의 경제와 인프라:
    전문화된 팀은 각자의 영역에서 최고 수준의 기술을 도입할 수 있다. 예를 들어, 전문 HPC팀은 개별 퀀트가 구축하기 힘든 슈퍼컴퓨팅 그리드를 운영해, 딥러닝과 같은 고연산 알고리즘의 적용을 가능케 합니다.
  • IP의 영속성:
    모든 코드는 중앙화된 라이브러리에 통합되므로, 특정 인력이 퇴사하더라도 회사의 연구 역량은 유지됩니다. 이는 회사의 가치가 인력이 아닌 시스템에 축적됨을 의미합니다.

1.4.1. 퀀터멘탈의 부상과 필연성

데이터의 가용성이 폭발적으로 증가함에 따라, 전통적인 펀더멘털 분석(재무제표 분석, 경영진 미팅 등) 만으로는 시장 초과 수익을 창출하기 어려워 졌습니다. 이에 따라 블랙록(BlackRock), 포인트72(Point72), 폴 튜더 존스 등 유수의 재량적 운용사들은 펀더멘털 통찰력과 퀀트의 데이터 처리 능력을 결합한 퀀터멘탈전략으로의 전환을 시도하고 있습니다. 이들은 머신러닝을 통해 대체 데이터를 분석하고, 이를 인간 매니저의 의사결정을 보조하는 도구로 활용하고자 합니다.

 

1.4.2 문화적 충돌: 예술가와 공학자의 대립

이런 전환은 기술적 문제보다 문화적 충돌로 인해 실패하는 경우가 많습니다. 재량적 매니저와 퀀트 연구원은 세상을 바라보는 인식론적 틀이 다릅니다.

  • 설명 가능성 vs 예측력: 재량적 매니저는 투자의 이유와 스토리를 중시합니다. 그들은 인과관계가 명확하지 않은 투자를 꺼립니다. 반면, 머신러닝 퀀트는 데이터가 보여주는 상관관계와 예측력을 중시하며, 모델이 블랙박스일지라도 통계적으로 유의미하다면 수용합니다. 이런 차이는 결정적인 순간에 충돌을 일으킵니다. 모델이 매도 신호를 보냈을 때, 재량적 매니저는 이유를 설명하지 못한다는 이유로 신호를 무시하는 경향이 있습니다.
  • 권력 구조의 비대칭: 전통적인 운용사에서 퀀트는 종종 IT 지원부서나 리스크 관리자 정도로 취급받습니다. 투자의 최종 의사 결정권은 여전히 스타 매니저가 쥐고 있습니다. 이런 구조에서 유능한 퀀트 인재들은 자신의 기여가 폄하된다고 느끼며, 퀀트 중심의 회사나 테크 기업으로 이탈하게 됩니다.

1.4.3 시지프스의 과제

로페즈 데 프라도는 이런 상황을 그리스 신화의 시지프스(Sisyphus)에 비유합니다. 재량적 회사가 퀀트 도구를 도입하려는 시도는 마치 바위를 산 정상으로 밀어 올리는 것과 같습니다. 경영진은 퀀트 팀을 고용하고 인프라를 구축하지만, 기존의 재량적 문화와 의사결정 구조를 바꾸지 않는 한 퀀트 팀은 주변부로 밀려나거나 실패하고, 이 과정이 무한히 반복됩니다.

 

성공적인 전환을 위해서는 단순히 퀀트 팀을 추가하는게 아닌, 회사의 DNA를 바꿔야 합니다. 포인트72의 큐비스트 사업부처럼 퀀트 조직에 완전한 자율성을 부여하거나, 블랙록처럼 전사적인 데이터 플랫폼을 구축하여 모든 의사결정 과정을 데이터 기반으로 재설계하는 근본적인 개혁이 필요합니다.

 


1.5.1. 추론(Inference) vs 예측(Prediction)

  • 계량경제학은 추론에 중점을 둡니다. 경제 이론에 기반해 변수 간의 인간관계를 설명하고, 모수의 불편추정량을 구하는 것이 목표이다. 따라서 모델의 해석 가능성과 파라미터의 통계적 유의성(t-stat, p-value)를 중시합니다.
  • 머신러닝은 예측에 중점을 둡니다. 데이터의 패턴을 학습해 표본 밖 데이터에 대한 예측 오차를 최소화하는 것이 목표입니다. 모델이 복잡해 내부 구조를 알기 어렵더라도(Black Box), 예측 성능이 뛰어나다면 유용한 것으로 간주합니다.

1.5.2. 금융 데이터의 특성과 계량경제학의 한계

로페즈 데 프라도는 전통적인 계량경제학이 금융 시장의 현실을 반영하지 못하는 가정들에 묶여 있다고 비판합니다. 이를 "Econ-quant"의 실패라고 지칭하기도 합니다.

  • 선형성(Linerarity)의 가정 : 계량경제학 모델(ex: OLS 회귀분석)은 대부분 변수 간의 선형 관계를 가정합니다. 그러나 금융시장은 인간의 심리, 피드백 루프, 임계점 효과 등으로 인해 고도로 비선형적인 복잡계(Complex Adaptive System)입니다. 머신러닝의 딥러닝이나. 트리 기반 모델은 이러한 비선형 상호작용을 포착하는 데 탁월합니다.
  • 다중공선성과 고차원성 : 빅데이터 시대에는 관측치(N)보다 변수(P)가 많은 경우(P > N)가 빈번합니다. 전통적인 계량경제학은 이런 고차원 환경에서 다중공선성 문제로 인해 붕괴됩니다. 반면 머신러닝은 릿지(Ridge), 라쏘(Lasso)와 같은 정규화 기법이나 앙상블 기법을 통해 고차원 데이터를 효과적으로 처리하고 유용한 정보를 추출합니다.
  • 확증편향(Confirmation Bias): 계량경제학은 "이론설정 -> 모델 수립 -> 검증"의 순서를 따릅니다. 연구자는 자신의 경제학적 직관(이론)이 맞다는 것을 증명하기 위해 모델을 수정하려는 확증 편향에 빠지기 쉽습니다. 반면 머신러닝은 데이터 주도(Data-driven) 접근법을 통해 이론적인 선입견 없이 데이터 자체에서 구조를 발결할 수 있습니다.

1.5.3 편향-분산 트레이드오프(Bias-Variance Tradeoff)

계량경제학은 편향(Bias, 모델의 잘못된 가정으로 인한 오차)을  줄이는 데 집착하는 반면, 머신러닝은 분산을 관리하는데 강점이 있습니다. 금융 데이터는 신호 대 잡음비(Signal-to-Noise Ratio)가 매우 낮기 때문에, 편향이 없는 복잡한 모델보다는 약간의 편향을 감수하더라도 분산을 낮춰 일반화 성능을 높이는 머신러닝 기법(ex : 배깅, 부스팅)이 실전에서 더 우수한 성과를 낼 가능성이 높습니다.

구분 금융 계량경제학 (Econometrics) 금융 머신러닝 (Machine Learning)
주목적 인과관계 규명 및 설명 (Explain) 미래 데이터 예측 (Predict)
모델 가정 선형성, 정규성, 독립성 등 강한 가정 비선형성, 복잡성 허용 (Data-driven)
데이터 구조 소수의 변수, 긴 시계열 (Low-dim) 대량의 변수, 고차원 데이터 (High-dim)
주요 리스크 과소적합(Underfitting), 모델 설정 오류 과적합(Overfitting), 블랙박스 문제
검증 방식 P-value, $R^2$ 등 표본 내(In-sample) 통계 교차 검증(CV) 등 표본 밖(Out-of-sample) 오차

1.6.1 다중 가설 검정의 함정 

백테스트는 과거 데이터에 전략을 시뮬레이션하여 미래 성과를 추정하는 도구입니다. 그러나 수많은 퀀트 펀드들이 훌륭한 백테스트 결과를 가지고도 실전에서 실패하는 이유는 백테스트를 연구 도구가 아닌 선별 도구로 오용하기 때문입니다.

 

연구자가 하나의 데이터셋에 대해 1,000개의 무작위 전략을 테스트한다고 가정한다면 유의수준 5% 기준에서, 통계적으로 아무런 예측력이 없는 전략이라도 약 50개는 우연히 좋은 성과를 낼 것입니다 (FP). 사일로 환경의 연구원들은 수천 번의 시뮬레이션을 돌린 후, 그중 가장 샤프 지수가 높은 전략하나를 선택합니다. 이때 그들은 실패한 999번의 시도에 대해서는 언급하지 않습니다.

 

1.6.2 제 2의 백테스트 법칙

로페즈 데 프라도는 이를 제 2의 백테스트 법직(Second Law of Backtesting)으로 정의합니다 : 백테스트를 통해 최적화하면 할수록, 그 전략이 실전에서 실패할 확률은 높아진다는 것이죠. 이는 수학적으로 볼 때, 최적화 과정이 데이터의 신호가 아닌 노이즈에 모델을 적합시키기 때문입니다. 높은 샤프지수의 백테스트는 실력의 증거가 아니라, 과적합의 증거일 가능성이 높다는 역설적인 상황이 발생합니다.

 

1.6.3 축소된 샤프 지수(Deflated Sharpe Ratio, DSR)

이러한 문제를 해결하기 위해 제시된 개념이 축소된 샤프 지수(DSR)입니다. DSR은 백테스트 결과로 나온 샤프 지수를 다음의 세 가지 요소를 고려해 하향 조정해야 합니다.

  • 수익률의 비정규성 : 금융데이터는 투터운 꼬리(Fat Tail)와 편포도(Skewness)를 가지므로, 정규분포 가정 하의 샤프 지수는 리스크를 과소평가합니다.
  • 트랙 레코드의 길이 : 데이터가 길수록 통계적 신뢰도가 높아집니다.
  • 독립적인 시행 횟수(Number of Independent Trials) : 가장 중요한 요소로, 연구자가 최종 전략을 찾기 위해 시도한 테스트의 횟수(K)를 반영합니다.

DSR은 K가 커질수록 유의미하다고 인정받기 위해 필요한 샤프 지수의 임계값(Threshold)을 높입니다. 예를 들어 한 번의 시도에서 샤프지수 2.0이 나왔다면 유의미할 순 있지만, 1,000번의 시도 끝에 나온 샤프 지수 2.0은 우연일 가능성이 높으므로 DSR은 이를 0에 가깝게 깎아 버립니다. 이는 퀀트들이 자신의 백테스트 결과를 과신하지 않도록 하는 강력한 수학적 제동 장치입니다.


1.7.1. 고성능 컴퓨팅 (HPC)의 필연성

앞서 언급한 팩토리 모델과 DSR 검증을 수행하기 위해서 막대한 연산 능력이 필요합니다. 예를들어 조합적 정화 교차 검증(Combinatorial Purged Cross-Validation, CPCV)을 수행하려면 데이터를 수천 개의 조각으로 나누고, 훈련세트와 테스트 세트 간의 정보유출을 제거한 뒤 수만 번의 모델 학습과 평가를 반복해야 합니다.

 

또한, 포트폴리오 최적화 문제는 본질적으로 NP-Hard(비결정론적 다항식 난해) 문제에 속하는 경우가 많습니다. 이를 해결하기 위해 퀀텀 어닐링(Quantum Annealing)이나 대규모 병렬 그리드 컴퓨팅이 도입되고 있습니다. 이제 퀀트 펀드의 경쟁력은 단순히 수학적 알고리즘 뿐 아니라, 슈퍼 컴퓨터를 운영하고 관리할 수 있는 하드웨어 인프라 역량에 달려있습니다. 이는 소규모 펀드나 개인 투자자가 따라올 수 없는 진입 장벽을 형성합니다.

 

1.7.2. 비정상성의 딜레마 : 메모리 vs 정상성

머신러닝 알고리즘의 대다수는 학습 데이터가 IID(독립항등분포)이거나 최소한 정상성(Stationarity)을 가진다고 가정합니다.

즉, 과거의 데이터 분포(평균, 분산 등)가 미래에도 유지되어야 학습이 가능합니다. 그러나 금융 시장은 구조적 변화, 레짐 체인지(Regime Change) 등으로 인해 대표적인 비정상 시계열 입니다.  2008년 금융위기 때의 데이터 분포는 2017년의 저변동성 장세와는 완전히 다릅니다.

 

1.7.3 해결책: 분수 차분(Fractional Differentiation)

로페즈 데 프라도는 이 델레마의 해결책으로 분수차분을 제안합니다. 기존의 차분은 정수 단위(d= 1)로만 이뤄졌지만, 수학적으로 차분 차수 d는 실수(Real Number)일 수 있습니다.

 

분수 차분은 0 < d < 1 사이의 값을 사용하여, 데이터의 비정상성을 제거할 수 있는 최소한의 수준까지만 차분을 수행합니다. 예를 들어 d = 0.4로 차분하면 데이터는 통계적 검점(ADF test)을 통과할 만큼 충분히 정상적이면서도, 과거 데이터와의 상관관계(메모리)를 상당 부분 보존하게 됩니다. 이는 머신러닝 모델이 노이즈에 현혹되지 않으면서도 장기적인 신호를 학습할 수 있게 하는 핵심적인 데이터 전처리 기법입니다.


1.8.1 수탁자 책임과 블랙박스의 충돌

투자 관리자는 고객의 이익을 최우선으로 해야 하는 법적 수탁자 책임(Fiduciary Duty), 특히 주의 의무와 충실 의무를 집니다.

그러나 딥러닝과 같은 고도화된 머신러닝 모델은 입력과 출력 사이 과정을 인간이 직관적으로 이해하기 힘든 블랙박스 특성을 가집니다.

 

만약 블랙박스 알고리즘이 예측하지 못한 시장 상황에서 오작동하여 고객 자산에 막대한 손실을 입혔을 경우(ex: 2010 플래시 크래시), 매니저가 알고리즘이 왜 그랬는지 나도 모른다 라고 변명하는 것은 법적으로 용납되지 않습니다. 이는 주의 의무 위반으로 간주될 수 있으며, 알고리즘에 대한 통제권과 이해 부족은 심각한 법적 리스크를 초래합니다.

 

1.8.2 알고리즘 혐오와 신뢰

심리학적 연구에 따르면, 사람들은 인간의 실수보다 알고리즘의 실수에 대해 훨씬 더 가혹하게 반응하는 알고리즘 혐오 성향을 보입니다. 인간 펀드 매니저가 손실을 내면 시장 상황 탓 이라고 이해해주지만, AI가 손실을 내면 시스템에 고장 났다고 생각해 사용을 중단합니다. 따라서 펀드가 지속 가능한 자금을 유치하기 위해선 모델의 신뢰성을 확보하는 것이 기술적 성능만큼이나 중요합니다.

 

1.8.3 해결책 : XAI와 감사 추적

이런 윤리적, 법적 문제를 해결하기 위해 금융 머신러닝은 설명 가능성과 투명성을 강화하는 방향으로 나아가고 있습니다.

  • 설명 가능한 AI(XAI) : 단순히 예측값만 내놓는 것이 아닌, 특성 중요소(Feature Importance) 분석(MDI, MDA) 이나 SHAP 값 등을 통해 "왜" 모델이 그런 결정을 내렸는지 설명할 수 있어야 합니다. 이는 펀드 매니저가 모델의 결정을 사후적으로 검증하고, 규제 당국이나 고객에게 투자 근거를 설명하는데 필수적입니다.
  • 감사 추적(Audit Trail) : 알고리즘 트레이딩의 모든 의사결정 과정을 기록되고 추적 가능해야 합니다. 어떤 데이터 버전이 사용되었는지, 당시 모델의 파라미터는 무엇이었는지, 왜 주문이 실행되었는지를 블록체인이나 불변로그(Immutable Log) 형태로 저장해야 합니다. 이는 사고 발생 시 책임 소재를 규명하고, 시스템의 오류를 수정하며, 규제 준수를 입증하는 증거가 됩니다.

결론 : 금융 머신러닝 도입은 단순한 도구의 교체가 아닌 금융 산업의 구조적 혁명을 의미합니다. 사일로 모델은 과적합과 비효율성으로 인해 팩토리 모델에 자리를 내어주고 있습니다. 또한, 계량 경제학의 설명적 접근은 머신러닝의 예측적 접근과 융합되어야 하며, 데이터 처리와 검증 방식(DSR, 분수 차분)역시 과학적 엄밀성을 갖추어야 합니다.


 

중요질문

1. 자의적인 판단에 의거(전통적인 액티브)한 투자에서 머신러닝-기반의 투자로 변화를 시도하거나 퀀터멘탈 펀드로 불리는
    방식으로 변환하려고 시도하는 회사에 대해 알고 있나?
→ D.E. Shaw, Two Sigma, Renaissance, AQR 등은 2017년 이전부터 이미 시스템, 머신러닝 기반 운용을 확대해 왔고
    AUM(Assets Under Management)과 전략 다변화 측면에서 업계 핵심으로 자리 잡았습니다.
→ Man Group, Bridgewater, Point72, Schonfeld 등은 리서치, 리스크 관리, 시그널 발굴에 머신러닝/대체데이터를 결합한
    quantamental 모델은 적극적으로 도입했습니다.
→ 전통 롱온리 자산운용사(글로벌 대형 운용사, 연기금 등)도 AI,ML 팀과 대체데이터 조직을 신벌하는 방식으로 부분적
    시스템화를 진행했습니다. 

  • 그 회사들은 성공적이었나?
    → 17년 기준으로 헤지펀드 자산 중 약 17%인 5000억 달러가 퀀트 전략에 배분되어있었고, 이후에도 시스템 전략으로의
        자금 유입이 비중 이상으로 빠르게 늘었습니다.
    → 24년 기준 글로벌 헤지펀드 AUM은 약 4.9조 달러로 추정, 이 중 상당 비중이 멀티 전략,마켓뉴트럴,시스템 전략 등
       계량 색채가 강한 운용사에 집중되고 있습니다.
  • 성과
    → 2018-2020 년 구간에서는 일부 전통 퀀트 주식 팩터전략(밸류, 모멘텀 등)의 알파 약화로 수익률이 부진했지만, 멀티
       전략, 고급 퀀트(옵션, 매크로, 고빈도)는 비교적 견조한 성과를 유지했습니다.
    → 2024-2025 년에는 멀티전략, 퀀트 전략이 다시 강한 알파를 기록하면서 헤지펀드 산업 전체 성과를 상회하는 사례가
       많았습니다.
    → 기술,데이터를 제대로 흡수한 대형사, 선도사는 성공적이었지만, 단순히 이름만 퀀트로 바꾼 소규모, 후발 운용사의
       상당수는 성과와 자금 유치 양쪽에서 별 효과를 보지 못했습니다.
  • 이런 변화에 저항하는 문화적 어려움에는 어떤 것들이 있는가?
    • 스타 PM/애널리스트 문화화의 충돌
      기존 액티브 조직은 개인의 직관, 경험을 강하게 신뢰하는 문화가 있고, 의사결정의 서사적 스토리를 중시합니다.
          반면 퀀트/ML은 집단 모델, 코드가 의사결정을 주도하므로, 개인 영향력과 보상의 정당성이 줄어든다고 느끼는
          사람이 저항합니다.
    • 투명성과 책임소재 문제
      → 규제, 컴플라이언스, 이사회, 고객은 왜 이 종목을 샀는가에 대한 설명 가능성을 요구하는데, 고난도 ML 모델은 설명이 어렵습니다.
      설명 책임이 사람에서 모델 데이터 팀으로 이동하면서, 오류 발생 시 누가 책임을 지는지 불명확해지는 것에 대한 불안이 존재합니다.
    • IT/데이터, 리서치 사이의 권력 재배분
      투자부서, 데이터 엔지니어, 리스크관리, IT 모두 의사결정 체인의 핵심이 되면서 조직 구조를 개편하고, 예산 의사결정 권한 재배분에 반발이 생깁니다.
    • 블랙박스 불신과 학습 곡선
      시니어 인력들이 통계, ML을 깊이 이해하지 못한 상태에서, 모델이 만들어내는 추상적 시그널을 신뢰하기 어렵다고 느끼며, 특히 손실이 발생하면 역시 사람 판단이 낫다는 회귀가 발생합니다.

2. 금융 수학에서 현재의 가장 중요한 난제는 무엇인가? 문제가 해결된다면

  • 모델 리스크와 강건·비모수적 가격결정
    • 전통적인 단일 확률모형(예: Black–Scholes, Heston)에 의존하는 가격결정은 시장 현실(점프, 비유동성, 불완전시장,
      구조 변화)에 취약합니다.
    • Martingale Optimal Transport, 강건 헤징, 비모수·모형 집합 접근 등, “모형을 틀릴 수밖에 없는 근사치”로 보는 강건 금융수학이 활발한 연구 주제입니다.
  • 시스템 리스크·네트워크·전염(contagion) 모델링
    • 금융기관 간 상호연계와 파생상품·담보·리포 거래 구조를 반영한 네트워크 기반 디폴트 전염 모델은 수학적으로 고차원·비선형·불완전관측 문제를 동반합니다.
    • McKean–Vlasov SDE, mean-field 게임, 점프가 있는 BSDE 등을 이용한 거시 시스템 리스크 정량화가 난제로 연구되고 있습니다.
  • 마켓 마이크로스트럭처와 알고리즘 트레이딩
    • 틱 데이터 수준에서의 주문흐름(order flow), 호가장(book) 동학, 유동성·임팩트 코스트를 반영한 최적 체결·헤징 전략 설계는 여전히 난제입니다.
    • 고빈도 환경에서의 최적제어·강건 제어, 비마르코프/비가우시안 노이즈, 상호작용 에이전트의 균형 분석이 어려운 문제로 남아 있습니다.
    • 이 밖에, ESG, 기후리스크의 계량 모형화, 암호화폐,디파이 시장의 가격결정 및 리스크 측정도 새로운 난제 영역으로 확장되고 있습니다.
  • 문제가 해결될 경우의 활용
  • 자금 배분
    • 모델 리스크·시스템 리스크를 정량화할 수 있다면, 투자자는 진짜 알파와 모델 착시를 더 잘 구분해 전략별 한도(Limit)
      ·리스크 버짓을 정교하게 배분할 수 있습니다.
    • 시스템 리스크 측정이 개선되면, 연기금·보험사는 위기 시 손실 꼬리 위험이 낮은 전략/자산군에 구조적으로 더 큰 비중을 실을 수 있습니다.
    • 연구원 보상
      • 이론적 난제를 해결해 실제 리스크 측정·헤징 비용을 줄이거나, 자본 효율성을 높이는 연구 결과는 지속 가능한 알파에 가깝기 때문에,
        헤지펀드·IB에서는 PnL 기반 보너스(모델로 인한 절감·수익 기여 추적),
        자산운용사·연기금에서는 장기 성과와 내부 자본 비용 감소 기여에 연동된 보상 구조가 적합합니다.
      • 최근에는 연구원이 포트폴리오 매니저와 유사한 PnL 공유 구조를 갖거나, 특정 전략·모델에 대한 로열티 성격의 인센티브를 부여하는 사례도 늘고 있습니다.

3. 투자 전문잡지 (Institutional Investor)에 따르면 17%의 헤지 펀드 자산이 계량 금융회사에 의해 운용된다고 한다.
 17년 6월 지금 5천억 달러에 달하고, 전년도 보다 3,860억 달러보다 늘어난 수치. 이러한 변화의 원동력이 무엇이라 생각하는가?

  • 2017년 기준 상황
    • 2017년 보고에 따르면 퀀트 헤지펀드는 전체 헤지펀드 자산의 약 17%를 차지했지만, 2010년 이후 순유입 자금의 29%를 흡수할 정도로 비중 이상의 인기를 누리고 있었습니다.
    • AUM 기준 약 5,000억 달러 수준으로, 당시로서는 역대 최대 규모였습니다.
  • 2017–2025년 변화
    • 헤지펀드 전체 AUM은 2017년 약 3조 달러에서 2024년 3분기 약 4.9조 달러로 증가했습니다.
    • 세부 전략별 비중을 보면,
      멀티전략, 대형 매크로·마켓뉴트럴, 통계차익 등 퀀트 색채가 강한 전략의 AUM이 빠르게 증가했고,
      전통 롱·쇼트 에쿼티 중 상당수가 팩터·시스템 요소를 도입해 경계가 흐려졌습니다.
    • 정확한 퀀트 비중은 조사마다 다르지만, 2020년대 중반에는 퀀트/시스템 전략이 전체 자산의 20–30% 범위까지 확대되었다는 추정이 일반적입니다(퀀터멘탈·멀티전략 내 퀀트 요소 포함 시).
  • 원동력
    • 성과와 위험조정 수익률
        위에서 언급한 대로, 특정 기간(특히 2024–2025년)에 대형 퀀트·멀티전략 펀드가 강한 알파와 낮은 변동성을 동시에
           보여주면서, 기관투자가들이 보수 높은곳도 돈을 넣을 가치가 있다고 판단한 것이 큽니다.
    • 데이터·컴퓨팅 비용 하락과 대체데이터 확산
        데이터 인프라·클라우드·GPU의 비용 하락으로, 자연어처리·이미지분석·위치 데이터 등 비정형 데이터를 활용한 투자
           모델 구축이 가능해졌고, 이는 전통 액티브보다 퀀트 조직에 더 큰 Comparative Advantage를 줬습니다.
    • 알고리즘에 대한 거부감(algo aversion) 감소
        2010년대 초까지 존재하던 기계가 돈을 맡아 운용하는 것에 대한 심리적 거부감이, 빅테크·핀테크·전자상거래에서의
           알고리즘 성공 경험을 통해 완화되었습니다.
  • 규제·리스크 관리 요구 강화
    • 금융위기 이후의 규제 체계(Basel, Solvency 등)는 정량적 리스크 측정을 강조했고, 이 과정에서 계량 리스크·퀀트 조직이 핵심 역할을 맡으면서 투자 프로세스까지 확장되었습니다.

4. 부자목록에 따르면 이익을 가장 많이 창출하는 최상위 10위 자산 운용사 중 계량 투자를 수행하고 있는 회사가 얼마나 되는가? 계량 펀드로 운용되는 자산 비율과 비교하면?

 

정확한 계량 투자 수행 여부·비율은 각 운용사의 내부전략 공개 정도에 따라 다르지만, 2024년 성과를 기준으로 한 Institutional Investor · Forbes 등의 Rich List를 보면:

  • 최상위 10위 내에 포함되는 대형사들 중 상당수가 멀티전략·퀀트·시스템 요소를 핵심 경쟁력으로 사용
    • 예: Citadel, D.E. Shaw, Millennium, Point72, Balyasny, Schonfeld 등은 시스템·퀀트 팀을 대규모로 운영합니다.
  • 2010년대 초와 비교하면, “순수 재량형 롱·쇼트”만으로 상위 10위에 오르는 경우보다, 멀티전략 + 대규모 계량 인프라를 가진 운용사가 상위권을 점유하는 경향이 뚜렷합니다.
  • 다만, AUM 기준 “전체 계량 펀드 비중(예: 20~30%)”에 비해, 상위 10위 운용사 중 계량 요소를 핵심으로 쓰는 곳의 비율은 그보다 훨씬 높다고 보는 것이 타당합니다. 즉, “수익 상위”에서는 퀀트·시스템 비중이 전체 평균보다 과대표집되어 있습니다.

1.5. 계량 경제학과 머신러닝의 가장 큰 차이는 무엇인가? 통계적 툴을 개선함으로써 경제학이나 금융이 어떠한 혜택을 볼 수 있는가?

  • 목표
    • 계량경제학: 인과·구조 파라미터 추정과 정책 효과 평가(“왜, 얼마나”에 관심).
    • 머신러닝: 예측 정확도·일반화 성능, 분류·회귀·탐지 등 “무엇이 일어날지”에 집중.
  • 모델 구조
    • 계량경제학: 경제이론에 기반한 구조적 모형, 명시적 함수형, 해석 가능한 계수(탄력성, 한계효과 등)를 중시.
    • 머신러닝: 유연한 함수 근사(딥러닝, 랜덤포레스트 등), 이론보다 데이터 주도, 해석보다는 성능을 우선.
  • 검증 방식
    • 계량경제학: 식별(identification), 내생성, 도구변수, 동태적 편의 등 이론적·통계적 타당성을 중시.
    • 머신러닝: 교차검증, 트레이닝/테스트 분리, 정규화·앙상블 등으로 예측 오차를 최소화.
    • 요약하면, 계량경제학은 "왜"에, 머신러닝은 "무엇"에 강점이 있습니다.
  • 통계적 툴 개선이 주는 혜택
    • 인과 추론 강화를 통한 정책·전략 설계
       Double Machine Learning(DML) 등, ML을 활용한 인과 추론 프레임워크는 고차원·비선형 환경에서도 편향을
           줄이고, 계량경제학의 식별 전략을 보완합니다.
       금융·경제에서 복잡한 정책(예: 금리정책, 규제, 세제 변화)의 효과를 더 정확하게 추정할 수 있습니다.
  • 예측과 구조 분석의 결합
    • 금융에서는 리스크관리·자산배분·옵션가격결정 등에서 정확한 예측 + 이해 가능한 구조가 모두 필요합니다.
    • 계량모형을 벤치마크로 두고, ML을 예측 보정·비선형 포착에 사용하면, 둘을 통합한 “해석가능한 고정밀 모델”을 구축할 수 있습니다.
  • 비정형 데이터 활용
    • 경제·정책 연구에서도 뉴스·소셜미디어·위성사진·카드데이터 등 비정형 데이터를 ML로 처리한 후, 그 결과를 계량모형의 설명변수로 넣으면, 숨겨진 경제활동·리스크 요인을 포착할 수 있습니다.

1.6 과학은 인간의뇌를 거의 이해하지 못하고 있다. 이 관점에서 뇌는 절대적인 블랙박스라고 볼 수 있다.
금융 머신러닝을 블랙박스라고 무시하고 비판하면서 주관적 판단에 의거한 투자를 신봉하는 원인을 어떻게 생각하는가?

  • 인지 편향과 통제감 환상
    • 사람은 자신의 판단을 “이해하고 있다”고 느끼지만, 실제로는 수많은 무의식적·감정적 요인에 의해 결정됩니다.
    • 반면, ML 모델은 수학적으로 정의되고 재현 가능하지만, 복잡성 때문에 “직관적으로 이해가 안 된다”는 이유로 더 불신을 받습니다. 통제감을 잃는 느낌이 강해서입니다.
  • 책임 회피 구조
    • 인간 의사결정은 “경험과 직관”이라는 서사를 통해 사후 변명·정당화를 할 수 있지만, 알고리즘은 로그와 코드로 남기 때문에 실수를 변명하기 어렵습니다.
    • 따라서, 일부 의사결정자는 오히려 사람이 실수하는 체계를 선호하는 “역설적인 인센티브”를 가질 수 있습니다.
  • 기술·통계에 대한 이해 부족
    • 고위 의사결정자·클라이언트의 상당수는 고급 ML/통계에 익숙하지 않아서, 자신의 이해 범위 밖의 모델에 대해 과도한 불신을 가집니다.
  • 정체성과 직업 안정성
    • 액티브 매니저, 애널리스트, 자문가는 “판단”이 자신의 전문성 핵심이라는 정체성을 갖고 있고, ML 도입은 곧 직업·가치의 축소로 느껴질 수 있습니다.
    • 결과적으로, 인간의 “블랙박스”는 정체성 때문에 용인되고, 알고리즘의 블랙박스는 위협으로 평가됩니다.

1.7. 투자 전략을 설명하는 저널의 기사를 읽었다고 가정하고, 백테스트에서 95%의 신뢰 수준으로 연간 샤프 비율(SR, Sharpe Ratio) 2를 성취했다고 가정하면 동일한 데이터셋을 활용해 독립적 백테스트를 수행할 수 있다고 가정해보자. 이 발견이 거짓일 가능성이 높은 이유는 ?

 

이 주장이 의심스러운 이유:

  • 데이터 스누핑·p-해킹 가능성
    • 동일 데이터셋에서 수많은 전략·파라미터 조합을 실험한 뒤, 가장 좋아 보이는 것만 선택하면, 통계적 유의성(p-value, 신뢰구간)은 심각하게 과대평가됩니다.
    • 저자는 이미 수많은 탐색을 했을 가능성이 크므로, “독립” 테스트라고 보기 어렵습니다.
  • 구조 변화·버블 구간 의존
    • SR=2 수준의 고샤프 전략은 특정 시장 구간(버블, 한 방향 트렌드)에 과도하게 의존했을 가능성이 큽니다.
    • 동일 데이터로 검증하면 이런 편향을 걸러낼 수 없고, 실제 out-of-sample에서는 성과가 급격히 낮아지는 경우가 많습니다.
  • 리스크·거래비용·슬리피지 미반영
    • 많은 논문 백테스트는 유동성 제약, 거래비용, 시장충격, 제한된 공매도 등을 과소평가하거나 무시합니다.
    • 실거래에서 이들을 반영하면 SR이 2 → 0.5~1 수준으로 떨어지는 것이 흔합니다.
  • 샤프 비율 추정의 표본오차
    • 연간 샤프를 신뢰구간까지 의미 있게 추정하려면 충분한 표본 길이가 필요합니다.
    • 몇 년치 데이터로 SR=2, 95% 신뢰라고 주장한다면, 샘플 수가 부족해 추정오차가 과소평가되었을 가능성이 큽니다.
  • 종합하면, 테스트 데이터가 진정으로 독립(out-of-sample)이 아니고, 탐색, 최적화 과정을 고려하지 않은 유의성 주장이기 때문에, 실제로는 우연에 가까운 결과일 확률이 높습니다.

1.8 투자 자문가들은 투자가들을 대신해 의사결정을 하는 데 있어 이해 상충의 영향을 받을 수 있다.

  • 머신러닝 알고리즘은 이해상충과 상관없는 전략 운용이 가능하다. 그 이유는 ?
    • 알고리즘은 미리 정의된 목적함수(예: 기대효용 극대화, 추적오차 최소화, 규제 제약 준수 등)를 따르며, 스스로 수수료·커미션·사적 이익을 고려하지 않습니다.
    • 사람이 이해상충을 발생시키는 경로(커미션 높은 상품 판매, 자기 계정과 고객 계정 간 거래, 보너스를 위한 과도한 리스크 등)가 알고리즘에는 직접적으로 존재하지 않습니다.
    • 물론 알고리즘을 설계한 사람이 이해상충을 반영한 목적함수를 넣을 수는 있으나, 그 경우 코드·로그를 통해 더 쉽게 추적·감사할 수 있다는 점에서 여전히 투명성이 높습니다.
  • 머신러닝 알고리즘을 활용해 결론적으로 손실을 봤다고 가정해보자. 알고리즘은 프로그램된 대로 실행됐고, 투자가들은 컴퓨터 로그의 포렌식 잠정 결과 프로그램의 의견에 동의했다. 자의적 판단에 의거한 투자에서 잘못된 판단 때문에 발생한 투자 손실과 비교했을 때 이 경우가 더 나은 점이 무엇인가? 각 경우에 있어 투자가의 손실배상 청구는?
  • 가정 :
    1. 알고리즘은 사전 정의된 룰과 리스크 한도 내에서 정확히 실행되었고, 로그 검증 결과도 이를 입증
    2. 투자자는 알고리즘의 구조, 위험을 사전에 설명받고 동의
  • 장점 
    • 의사결정 과정의 투명성
        모든 거래·신호·리스크 지표가 로그에 남아 있어, ex post 포렌식에서 “규정 위반·임의 변경·의도적 리스크 과다”
           여부를 객관적으로 판단할 수 있습니다.
    • 책임 범위의 명확화
        손실이 모델의 통계적 한계(불확실성) 때문인지, 구현 오류인지, 리스크 한도 위반 때문인지가 비교적 명확히 구분
    • 사후 학습·개선 가능성
        같은 상황에서 모델이 어떤 신호를 만들었는지 재현 가능하므로, 연구·개선에 활용할 수 있고, 이는 조직 차원의
          지식으로 축적됩니다.
  • 자의적 판단 손실 : 
    • 의사결정의 근거가 모호하고 문서화가 불완전한 경우가 많아, 책임소재·과실 여부를 판단하기 어렵습니다.
    • 결과적으로, 투자자가 “설명의 충실도·위험 고지 여부”에 기반해 민사상 손해배상 청구를 하기 수월할 수 있지만, 입증은 훨씬 더 주관적입니다.
  • 손실배상 청구 측면
    • ML 알고리즘
      • 프로그램이 사전 설명된 범위와 리스크 한도 내에서 정상적으로 실행되었다면, 통상적인 시장 리스크로 간주되어 배상 책임이 제한됩니다(규정·계약 위반 없음).
      • 반대로, 구현 오류·리스크 한도 무시·모델 검증 소홀 등 “운용사의 과실”이 입증되면, 손해배상 책임이 발생할 수 있습니다.
    • 자의적 판단
      • 명백한 규정 위반(투자정책서 위반, 레버리지 한도 초과, 허위 설명 등)이 없다면, 역시 시장 리스크로 간주되어 배상 범위는 제한적입니다.
      • 다만, “적합성 원칙 위반”이나 고위험 상품 오판 등에 대한 소송 여지는 더 크게 인식되는 편입니다.
    • 금융 자문가를 중립적 에이전트와 벤치마킹하는 것이 타당한가?
      • 이론적으로는, “이해상충이 없는 중립적 에이전트(예: 미리 정의된 ML 알고리즘 또는 규범적 결정모형)”의 의사결정과 인간 자문가의 의사결정을 비교하는 것은 매우 유용합니다.
        • 자문가의 추천이 수수료·커미션·인센티브에 의해 왜곡되는지 검증할 수 있기 때문입니다.
      • 실무적으로는,
        • 투자자의 선호·제약·비재무적 목표(ESG, 유동성 선호 등)를 얼마나 잘 반영했는지를 함께 봐야 하므로, 단순 수익률 비교만으로 벤치마킹하는 것은 불충분합니다.
        • 따라서 “중립적 알고리즘 + 인간 자문가”의 혼합 모델로, 서로를 상호 검증하는 구조가 점점 더 현실적인 방향으로 평가됩니다.
반응형