Qlearning forex


이동 평균 지표 forex.


외환 plerte druck 베를린입니다.


Q 학습 forex.


이 튜토리얼은 간단하지만 포괄적 인 수치 예제를 통해 Q-learning의 개념을 소개합니다. 이 예는 알려지지 않은 환경에 대해 학습하기 위해 자율 학습을 사용하는 에이전트를 설명합니다. 이 예제와 함께 제공되는 소스 코드 예제를 비교해 보면 도움이 될 것입니다. 아래 그림과 같이 건물에 5 개의 방이 문으로 연결되어 있다고 가정합니다. 우리는 각 방의 번호를 0에서 4까지 번호를 매길 것입니다. 건물의 바깥 쪽은 하나의 큰 방으로 생각할 수 있습니다. 5. 문 1과 4는 방 5 외부에서 건물로 이어집니다. 이 예를 들어, 어떤 방에도 상담원을 배치하는 것을 배우고 그 방에서 건물 외부로 나가면 이것이 우리의 목표 방이됩니다. 다시 말해 목표실은 5 번입니다. 이 방을 목표로 설정하기 위해 각 문 i에 보상 값을 연결합니다. 즉각적으로 목표로 인도하는 문은 대상 방에 직접 연결되지 않은 다른 문은 즉시 보상을받습니다. 문은 양방향이기 때문에 0은 4로 이어지고 4 개의 리드는 0으로 돌아갑니다. 두 개의 화살표가 각 방에 지정됩니다. 각 화살표는 아래와 같이 즉석 보상 값을 포함합니다. 물론, 룸 5는 보상과 함께 그 자체로 되돌아갑니다. 목표 룸에 대한 다른 모든 직접 연결은 보상을 포함합니다. Q 학습에서 목표는 가장 높은 보상으로 국가에 도달하는 것입니다. 따라서 에이전트 forex가 목표는 영원히 거기에 남아있을 것입니다. 이 유형의 목표는 외환 "흡수 목표"라고합니다. 경험을 통해 배울 수있는 벙어리 가상 로봇으로 우리의 에이전트를 상상해보십시오. 에이전트는 한 방에서 다른 방으로 전달할 수 있지만 환경에 대한 지식이 없으며 어떤 순서의 문이 외부로 연결되는지 알지 못합니다. 우리가 건물의 어느 방에서나 에이전트의 단순한 피난 (evacuation)을 외환으로 모델링하고 싶다고 가정 해 봅시다. 이제 우리는 방 2에 에이전트가 있고 에이전트가 집 외부에 도달하는 것을 배우기를 원한다고 가정합니다. 5. 외부를 포함하여 각 방을 "상태"라고 부르며 한 방에서 다른 방으로 에이전트의 움직임을 학습합니다. "동작". 우리의 다이어그램에서 "상태"는 노드로 묘사되고 "액션"은 화살표로 학습됩니다. 에이전트가 상태 2에 있다고 가정하면 상태 2는 3에 연결될 수 있습니다. 상태 2가 3에 연결되어 있기 때문에 상태 3으로 갈 수 있습니다. 그러나 상태 2에서 에이전트는 직접 문 연결실 1이 없기 때문에 직접 상태 1로 갈 수 없습니다. 2, 따라서 화살표가 없습니다. 상태 3에서 외환은 상태 1 또는 4로 돌아갈 수 있으며 외환 2에서는 상태 3에 대한 모든 화살표를 볼 수 있습니다. 에이전트가 상태 4에 있으면 세 가지 가능한 동작이 상태 0, 5 또는 3이됩니다. 에이전트가 상태 1에 있으면 상태 5 또는 상태 3이 될 수 있습니다. 상태 0에서 상태 4로 돌아갈 수 있습니다. 상태 다이어그램과 순간 보상 값을 다음 보상 테이블에 넣을 수 있습니다. "matrix 아르 자형". 테이블의 -1은 널값을 나타냅니다. 예를 들어, 상태 0은 상태 1로 갈 수 없습니다. 이제 에이전트가 경험을 통해 얻은 기억을 나타내는 유사한 행렬 "Q"를 에이전트의 두뇌에 추가합니다. 행렬 Q의 행은 에이전트의 현재 상태를 나타내며, 열은 노드 간의 링크를 다음 상태로 학습시키는 가능한 조치를 나타냅니다. 에이전트는 아무것도 알기 시작하지 않고 행렬 Q는 0으로 초기화됩니다. 이 예에서 설명의 단순화를 위해 상태 수를 6으로 가정합니다. 얼마나 많은 주들이 포함되어 있는지 알 수 없다면, 행렬 Q는 오직 하나의 원소로 시작될 수 있습니다. 새로운 상태가 발견되면 행렬 Q에 더 많은 열과 행을 추가하는 것은 간단한 작업입니다. 이 공식에 따라, 행렬 Q의 특정 요소에 할당 된 값은 행렬 R의 해당 값과 학습 매개 변수 Gamma의 합계에 다음 상태의 모든 가능한 동작에 대한 Q의 최대 값을 곱한 값과 같습니다. 우리의 가상 에이전트는 교사없이 경험을 통해 학습하게됩니다. 이것은 감독되지 않은 학습이라고합니다. 에이전트는 목표에 도달 할 때까지 상태에서 상태로 탐색합니다. 우리는 각각의 탐험을 에피소드라고 부를 것입니다. 각 에피소드는 에이전트가 초기 상태에서 목표 상태로 이동하는 것으로 구성됩니다. 에이전트가 목표 상태에 도달 할 때마다 프로그램은 다음 에피소드로 이동합니다. 위의 알고리즘은 에이전트가 경험을 통해 학습하는 데 사용됩니다. 각 에피소드는 하나의 교육 세션과 동일합니다. 각 교육 세션에서 에이전트는 목표 상태에 도달 할 때까지 Rewceives 보상이있는 경우 매트릭스가 나타내는 환경을 탐색합니다. 트레이닝의 목적은 매트릭스 Q로 대표되는 에이전트의 '뇌'를 향상시키는 것입니다. 더 많은 트레이닝 결과가보다 최적화 된 매트릭스 Q를 생성합니다. 이 경우, 매트릭스 Q가 향상되어 주변을 탐색하지 않고 같은 방에 앞뒤로 가면 에이전트는 목표 상태로가는 가장 빠른 경로를 찾습니다. 감마 매개 변수의 범위는 0에서 1 0입니다. 감마가 0에 가까울 경우 상담원은 즉각적인 보상 만 고려하는 경향이 있습니다. 감마가 하나에 가까워지면 상담원은 향후 보상을 더 큰 무게로 고려하여 보상을 지연시킬 수 있습니다. 행렬 Q를 사용하기 위해 에이전트는 초기 상태에서 목표 상태까지 일련의 상태를 간단히 추적합니다. 이 알고리즘은 현재 상태에 대해 행렬 Q에 기록 된 보상 값이 가장 높은 액션을 찾습니다. Q-learning 알고리즘의 작동 방식을 이해하기 위해 단계별로 몇 가지 에피소드를 살펴 보겠습니다. 나머지 단계는 소스 코드 예제에 설명되어 있습니다. 행렬 R의 두 번째 행 상태 1을 살펴보십시오. 현재 상태 1에 대해 두 가지 가능한 동작이 있습니다. Forex 무작위 선택, 우리는 우리의 동작으로 5를 선택합니다. 우리 요원이 상태 5에있을 때 일어날 일을 상상해 봅시다. 보상 행렬 R i의 여섯 번째 줄을보십시오. 3 가지 가능한 조치가 있습니다. 행렬 Q는 여전히 0으로 학습 초기화되므로 Q 5, 1Q 5, 4Q 5, 5는 모두 0입니다. Q 1, 5에 대한이 계산의 결과는 R 5, 1로부터의 즉각적인 보상 때문입니다. 다음 상태 5가 현재 상태가됩니다. 5가 목표 상태이므로 하나의 에피소드를 완료했습니다. 우리 에이전트의 두뇌는 다음과 같이 업데이트 된 행렬 Q를 포함합니다. 다음 에피소드에서는 무작위로 선택한 초기 상태부터 시작합니다. 이번에는 상태 3을 초기 상태로합니다. 행렬 R의 네 번째 행을 봅니다. 그것은 3 가지 가능한 행동을 가지고 있습니다 : 무작위 선택에 의해, 우리는 우리의 행동으로서 1을 배우기로 선택합니다. 이제 우리는 상태 1에 있다고 상상합니다. 보상 행렬 R i의 두 번째 행을 봅니다. 가능한 액션은 2 가지입니다. 그러면 Q 값을 계산합니다. 마지막 에피소드의 업데이트 된 행렬 Q를 사용합니다. 행렬 Q는 다음과 같이됩니다. 다음 상태 인 1이 이제 현재 상태가됩니다. 상태 1은 목표 상태가 아니므로 Q 학습 알고리즘의 내부 루프를 반복합니다. 따라서 현재 상태 1로 새 루프를 시작하면 두 가지 가능한 동작이 있습니다. 행운의 추첨을 통해 선택한 동작은 5입니다. 이제 우리는 forex 상태 5이고 세 가지 가능한 동작이 있습니다. 다음을 사용하여 Q 값을 계산합니다. 가능한 액션의 최대 값 행렬 Q, Q5, 1Q5, 4Q5, 5의 업데이트 된 엔트리는 모두 제로이다. 이 결과는 Q 행렬을 변경하지 않습니다. 5가 목표 상태이므로이 에피소드를 마칩니다. 우리 에이전트의 두뇌는 다음과 같이 업데이트 된 행렬 Q를 포함합니다. 우리 에이전트가 더 많은 에피소드를 통해 더 많은 것을 배우면 마침내 매트릭스 Q의 수렴 값에 도달합니다. 이 행렬 Q는 정규화 될 수있다. 행렬 Q가 수렴 상태에 충분히 가깝다는 것을 알면 우리 요원이 목표 상태에 대한 최적의 경로를 학습했음을 알 수 있습니다. 최상의 상태 시퀀스를 추적하는 것은 각 상태에서 가장 높은 값을 가진 링크를 따라 가기 만하면됩니다. 주 3에서 최대 Q 값은 두 가지 대안을 제안합니다 : 정보 개인 정보 보호 정책 서비스 약관 사이트 맵.


비디오 게임에서 Q 학습을 쉽게 사용하는 방법.


4 가지 생각 & 학습; Q 학습 forex & rdquo;


컨설팅 아키텍트의 보고서에 따르면 진전이 진행 중입니다.


1 절과 2 절을 결합하여 단 한 번의 솔리드 한 소개를했을 것입니다.


Caliver, 암브로스 1938 릴 48 : 802 다시 : 흑인의 백과 사전.


기계적인 Forex.


기계 거래 전략을 사용하여 외환 시장에서 거래합니다.


강화 학습 : Q 학습 Forex 거래 알고리즘의 두뇌를 살펴보십시오.


강화 학습 (RL)은 Udacity에서 나노 학위를 배우는 기계를 마친 이후로 중요한 부분이었습니다. 이는 강화 학습이 다른 기계 학습 전략과 크게 다르므로 & # 8211; 움직이는 창 감독 학습 방식을 사용하는 & # 8211; 따라서 우리 거래에있어 잠재적으로 중요한 다양 화의 원천이됩니다. 그러나 보강 학습 시스템이 어떻게 작동 하는지를 이해하고 어떤 시장 상황에서 어떤 종류의 조치가 취해질 지 예측할 수있는 것은 매우 중요합니다. 오늘 나는 당신에게 Q-table 강화 학습 알고리즘의 두뇌를 정점으로 제공하여, 그것이 무엇을 끝내고 거래 결정을 내리는 지 살펴볼 수 있도록하고자합니다.


RL 접근법을 연구하기 시작했을 때 시장에서 강력한 RL 접근법을 포기하고 유용한 알고리즘을 기대할 수 없다는 것이 곧 명백 해졌습니다. RL 알고리즘은 노이즈에 매우 쉽게 곡선을 맞출 수 있으며 데이터 마이닝 편차의 결과 인 일반 및 기본 결과가 아닌 결과를 생성 할 수 있습니다 (여기에서 자세한 내용을 읽을 수 있습니다). 이러한 이유로 우리가 발견 한 성공적인 알고리즘은 그래픽 방식으로 표현되고 이해 될만큼 충분히 단순한 Q - 학습 접근 방식으로 밝혀졌습니다.


간단히 말하면 우리 알고리즘은 사전 설정된 시장 조건을 연구합니다. 시장 상태 & # 8211; 사전 정의 된 변수 세트의 상태로 정의됩니다. 아주 단순한 경우 어제의 가격을 말하면 어제는 강세를 보였고 어제는 곰 같았거나 어제는 중립이라고 정의 할 수있었습니다. 이것은 3 개의 엔트리를 갖는 q - 테이블을 생성 할 것이고, 알고리즘은 길거나 짧게 또는 시장에서 벗어남으로써 생성 된 이익 / 손실에 따라 보상을 할당하는 시장 데이터를 통해 훈련 할 것이다. 일반적으로 우리는 알고리즘을 훈련시키기 위해 데이터의 60 %를 사용합니다. & # 8211; Q 테이블을 수정하기 위해 10 번 실행되었습니다. & # 8211; 그런 다음 전체 데이터에서 한 번 실행합니다. 즉, 샘플 밖의 의사 (pseudo-out-of-sample) 기간의 개선은 추측없이 훈련을 통해서만 가능하다는 것을 의미합니다 (알고리즘은 어떤 방식 으로든 미래로부터 얻지 못한 것으로부터 학습합니다). 이 게시물의 첫 번째 이미지는 RL 알고리즘 중 하나를 사용하여이 프로세스를 수행 한 결과로 균형 곡선을 보여줍니다.


이 Q - 학습 접근법은 Q - 테이블을 생성하기 때문에이 테이블의 값을보고 부호에 따라 색상을 코딩함으로써 알고리즘이 배운 것을 탐색 할 수 있습니다. 위 이미지는이 작업의 결과를 보여줍니다. 이 알고리즘의 경우 우리는 주별로 요일별로 분리 된 25 개의 시장 상태를 가지고 있습니다. 이것은 총 125 개의 시장 상태를 가질 수 있음을 의미합니다. 대부분의 경우에서 알 수 있듯이 알고리즘은 배웠던 것처럼 거래하지 않기로 결정했습니다. & # 8211; 시장 상태 정의에 따라 & # 8211; 대부분의 시간 동안 거래가 이익으로 이어지지는 않습니다. 따라서 대부분의 BUY / SELL 행이 음수입니다. & # 8211; 알고리즘은 이러한 조건 하에서 거래에서 부정적인 보상을 기대합니다. & # 8211; STAY OUT 행은 항상 녹색입니다. 이러한 시장 상태가 전체 테스트 프로세스에서 스스로를 나타내지 않았기 때문에 일부 행은 노란색입니다.


그러나 몇 가지 예외가 분명히 있습니다. 그렇지 않으면 알고리즘이 절대로 거래되지 않습니다. 검정 테두리 상자에는 예외가 강조 표시되므로 더 쉽게 볼 수 있습니다. 우리는 알고리즘이 시장에서 머무르는 것보다 거래가 더 좋다고 결정한 경우가 5 건, 긴 위치를 트리거하는 것이 4 건이고 짧은 위치를 야기하는 경우가 5 건입니다. 상태 15의 경우 금요일과 수요일에 긴 신호를 생성하는 반면, 목요일과 화요일에 알고리즘은 수신 한 가장자리가 충분히 크지 않음을 알았습니다. 이 정보를 통해 우리는 알고리즘이 월요일에 결코 거래되지 않으며 목요일의 화요일, 수요일 및 금요일과 단식에서만 긴 거래를하게된다는 것을 알 수 있습니다. q - 테이블 값은 금요일 주 15에서 가장 높다는 것을 알 수 있습니다. 이는이 동작이 변경하기가 가장 어렵다는 것을 의미합니다 (학습 된 내용이 커브가 아닌 경우 가장 수익성이 높아야 함). 수요일은 포지션을 창출 할 수있는 두 국가가있는 유일한 날이기도합니다.


강화 학습 알고리즘의 동작은 약간의 수수께끼 일 수 있지만 간단한 Q - 학습 알고리즘에 대한 기본 및 그래픽 분석을 수행하여 거래 방법 및 거래 프로세스 결과에 대해 자세히 알아볼 수 있습니다. 이를 통해 우리는 알고리즘의 거래 방식과 거래 행위가 실제로 얼마나 잘 어울리는 지 (가치의 크기를 비교함으로써) 다른 유형의 기계 학습 알고리즘으로는 더 어려울 수있는 것에 대해 약간의 기대를 얻을 수 있습니다. 위 결과는 수익성 높은 역사적 결과를 얻기 위해 복잡성이 필요 없다는 것을 보여줍니다. 잘 선택된 시장 상태 기술자는 과도한 피팅이나 높은 데이터 마이닝 편향의 위험이 훨씬 적은 성공적인 전략으로 이어질 수 있습니다.


기계적인 Forex.


기계 거래 전략을 사용하여 외환 시장에서 거래합니다.


강화 학습 : RSI 발진기와 함께 Q - 학습 사용.


Relative Strength Index (RSI)는 상당한 양의 중요한 정보를 단일 측정으로 응축 할 수 있기 때문에 가장 좋아하는 지표 중 하나입니다. 이 때문에 매일의 시간대에 외환 거래를위한 최적의 정책을 장치하기 위해 RSI 측정 그룹을 사용할 수 있는지 확인하고 싶었습니다. 오늘 저는 제가 얻은 결과 중 일부에 대해 이야기하고 싶습니다. 또한 올바른 정보가 정책 생성에 사용된다면 강화 학습을 사용하여 성공적인 간단한 시스템을 만들 수 있다는 사실을 지적합니다. 상당한 수의 Forex 쌍에 걸친 RSI 측정만을 사용하여 실제로 최적의 정책을 생성하는 방법을 알 수 있습니다.


보강 학습의 아이디어는 게임을 마치 게임처럼 시장을 다루는 것입니다 (여기에서 자세한 내용을 읽을 수 있습니다). 시장을 설명하기 위해 일련의 변수를 사용하여 일련의 시장 상태를 정의한 다음 Q-learning을 사용하여 시장 상태에 대한 최적의 정책을 유도하는 알고리즘을 학습합니다. 이 실험에서는 강화 학습에 사용할 수있는 Q 값 표를 만들기 위해 여러 기간의 RSI 발진기를 사용하기로 결정했습니다. 1986 년부터 2010 년까지의 일일 데이터를 사용하여 최적의 정책을 생성 한 다음 2010 년부터 2017 년까지의 데이터를 사용하여 샘플 밖의 의사 테스트를 수행하여 알고리즘이 곡선에 맞추어 졌는지 여부를 확인합니다. 물론 데이터 마이닝 편향을 설정하려면 무작위 데이터를 통한 전체 교육 / 테스트 프로세스 테스트가 필요합니다. 이러한 강화 학습 기반 시스템에는 이익 실현, 중지 손실 또는 기타 탈퇴 메커니즘이 전혀 포함되어 있지 않습니다. 강화 학습 방법은 시장의 길고 짧은 지 또는 시장에서 벗어나는 것이 최적인지 여부를 매일 시작하기 만하면됩니다. 그에 따라 정책과 거래를합니다.


위 이미지 (EUR / USD backtest)는 256 가지 가능한 시장 상태를 사용하여 내가 처음 시도한 것을 보여줍니다. 이 자유도로 인해 훈련 ​​기간에 대한 최적의 정책은 1986 년에서 2010 년까지 뛰어난 결과를 얻었지만 훈련 단계에서 볼 수 없었던 의사 아웃 오브 샘플 조건에 직면했을 때 완전히 실패합니다. 본질적으로 시장 상황이 너무 많아서 훈련 기간 동안 우리가 얻을 수있는 것은 Q - 테이블 내의 과도한 자유도를 사용하여 추가적인 유용한 정보를 제공하지 않는 데이터에 곡선을 맞추는 것입니다.


이 문제를 해결하기 위해 나는 64 개의 다른 시장 상태를 가진 Q - 테이블로 옮겼습니다. 이것은 6 개의 다른 RSI 발진기를 사용하여 달성되었습니다. 위의 그래프는 모든 쌍을 사용하는 거래 포트폴리오의 결과를 포함하여 5 개의 다른 쌍에 대해이 알고리즘을 사용하여 얻은 샘플 내 및 모의 결과를 보여줍니다. 결과는 훨씬 더 성공적이며, 모든 쌍은 샘플 밖의 가짜 결과로 수익성있는 결과를 얻습니다. 그러나 그들 중 상당수가 샘플 기간과 비교하여 자신의 가짜 샘플에서 훨씬 더 평평 해 졌다고 언급 할 가치가있다. 가장 주목할만한 것은 EUR / USD & # 8211; 기본적으로 샘플링 트레이닝 기간 동안 따라온 것과 동일한 추세를 지속합니다.


전체 포트폴리오의 경우 교육 기간 중 중요한 악화가 있습니다. & # 8211; 예상되는 & # 8211; 연간 샘플링 된 Sharpe 비율이 샘플 내 기간의 3.49의 값으로 거의 50 % 감소하므로 의사가 아닌 샘플 기간 내에 1.90으로 떨어집니다. 실제로 샘플 밖에서는 더 이상 빠질 것이 확실합니다. 데이터 마이닝 바이어스, 커브 피팅 바이어스 및 알파 감쇠의 완전한 효과가 발생할 때 합리적인 Sharpe가 0.5와 1.0 사이에있을 것으로 예상됩니다. 라이브 거래에서 뚜렷하게 나타납니다.


이 모든 내용을 통해 정확히 동일한 시장 기술자가 매일 다른 4 가지 통화 쌍을 통해 다소 성공적인 정책을 창출 할 수 있다는 것은 놀라운 일입니다. 이 디스크립터가 얼마나 단순한지를 고려해 보라. 그것은 정책이 연간 20 건의 거래를하는 전체 포트폴리오를 가진 알고리즘의 결정에 중요한 제한을 초래한다고 말했다. 이러한 유형의 보강 학습 트레이딩 시스템 디자인은 GPU 마이닝과 같은 것으로 쉽게 변환되지 않는다는 점을 지적 할 필요가 있습니다. 하지만 모든 정책 최적화가 가능할 때 이러한 복잡한 입력을 수동으로 추가하고 테스트하기가 쉽기 때문에 필요하지 않을 수도 있습니다. Q - 학습 알고리즘에 의해 완전히 자동화됩니다. 비슷한 디스크립터에서 최적의 정책을 이끌어내는 수십 개의 시스템 포트폴리오를 생성하는 것이 어렵지 않을 수 있습니다.


Forex 무역 학습.


Forex를 무역하는 것을 배우는 것은 전문가 Forex 무역 전문가에 의해 "ForexSQ"FX 무역 팀 설명했다.


Forex 무역 학습.


트레이딩 아트를 배우는 법.


forex를 무역하는 것을 배우는 것은 곤란한 생각의 조금이다. 당신이 돈을 버는 방법으로 forex 무역을 처음 보았을 때, 그것은 복잡하고 도전적인 것처럼 보인다.


여기서 자신을 발견하고 외환 거래를 배우고 싶다면 올바른 위치에 오게됩니다. 외환 거래의 모든 측면은이 사이트에서 논의됩니다.


외환 거래를 배우기위한 안전한 방법을 알아 내려고 뇌를 부숴 버렸다면 데모 계좌를 개설 할 수 있습니다.


forex 민주당 원 계정은 종류의 놀이 계정이다. 그것은 가상의 돈을 사용하여 실제 시장 상황에서 외환 거래를하고 가상의 (손실없이) 손실이나 이익을 볼 수있게합니다. 대부분의 forex 중개인은, 전부는 아니더라도이 유형의 계정에 새로운 잠재 고객을 제공합니다. 여기에서 외환 브로커 목록을 찾을 수 있습니다.


데모 계정에서 연습을하면 여러 분야에서 경험을 얻을 수 있습니다. 무엇보다도, 그것은 당신이 외환 거래에 능숙한지를 볼 수있게 해준다. (만약 당신이 걱정하지 않는다면, 걱정할 필요가 없다. 또한 브로커의 도구에 익숙해 있는지 확인할 수 있습니다.


새로운 거래자의 경우 여러 브로커에서 몇 가지 데모 계좌를 제안하고 모든 거래가 서로 다른 플랫폼의 작동 방식을 알게됩니다.


처음 외환 거래 플랫폼으로 게임을 시작했을 때 머리가 터지거나 혼자가 아닌 것처럼 걱정할 필요가 없다면 매우 복잡해 보일 수 있습니다.


데모 계좌는 외환 거래의 충돌 과정이지만 환율에 대한 이해를 돕기 위해 배울 수있는 몇 가지 기본 기술이 있습니다.


외환 따옴표.


우선 forex 견적을 읽는 방법을 알아야합니다. 외환 견적을 읽을 때 고려해야 할 두 가지 통화, 기본 통화 및 견적 통화가 있습니다.


당신은 외환 따옴표 단면도에 이것에 관하여 더 많은 것을 알아낼 수있다.


외환 차트.


둘째, 외환 차트를 읽는 방법을 알아야합니다. 로켓 과학과는 다른 복잡한 차트를 사용하는 일부 상인을 볼 수도 있지만 로켓 과학은 아닙니다. 외환 차트에 관해서는 가격에 무슨 일이 일어나고 있는지를 알 수있는 많은 기술 지표가 있습니다. 그러나 일반적인 규칙은 간단합니다.


트레이딩 배치.


외환 거래를하는 것은 전반적으로 간단한 과정입니다. 진짜 돈이 선에 올 때, 때때로 너를 긴장시킬 수있다. 이것은 외환 거래 심리와 관련이 있습니다. 돈을 잃는 것은 항상 무서워서 돈을 벌 때 욕심을 느끼기 쉽습니다. 잠재 고객은 실제로 시장에 돈을 벌 준비를하고있을 때 신경에 대한 사례를 줄 것입니다. 첫 번째 외환 거래를하는 것은 긴박한 경험이지만 심지어 데모 계좌를 사용하는 경우에도 그렇습니다. 그러나 라이브 거래를 통해 나중에 돈을 벌기 위해서는이를 극복하고 명확하게 생각해야합니다.


기록 보관.


당신이 만든 거래에 대한 오프라인 기록을 유지해야 할뿐만 아니라 거래 일지도 보관해야합니다. 거래 일지는 거래를하는 이유를 적어 놓는 것입니다.


이것은 당신이 좋은 거래를 할 때 당신이 생각하고 있었던 것과 나쁜 거래를 할 때 당신이 생각하고 있던 것을 요약해서 읽을 수있게 해줍니다.


무역 시스템.


외환 거래 시스템을 찾는 것은 큰 일입니다. 끊임없이 실패하지 않는 하나의 시스템을 찾기 위해 끊임없이 노력하는 함정에 빠지게하십시오. 그런 건 없어. 외환 거래 시스템은 단순히 잃어버린 것보다 더 많은 것을 얻는 것에 익숙한 거래 시스템입니다. 그보다 더 복잡해야하는 것처럼 보이지만, 그렇다고하지는 않습니다. 완벽한 거래라는 것은 없기 때문에 성취하려고 노력하지 않아도됩니다.


Forex Trading 시작하기.


그것이 내려올 때, 외환 거래는 돈을 벌 수있는 좋은 방법입니다. 부자가되는 빠른 계획처럼 그것을 대하는 함정에 빠지지 않는 한. 그것은 단순히 다른 투자 수단이며 진정한 외환 투자 전략으로 존중한다면이를 잘 처리 할 수 ​​있습니다.

Comments