Indikator Teknikal

Panduan Lengkap Menggunakan RSI dan Stochastic dalam Trading
MetaTrader4
Panduan Lengkap Menggunakan RSI dan Stochastic dalam Trading

Dalam dunia trading, memahami alat analisis teknikal adalah kunci untuk membuat keputusan yang bijak. Hari ini, kita akan membincangkan dua indikator yang popular, iaitu RSI dan Stochastic, serta bagaimana anda boleh memanfaatkan alat ini untuk meningkatkan prestasi trading anda. 1. Memahami RSI (Relative Strength Index) RSI adalah indikator yang digunakan untuk mengukur kekuatan dan kelajuan pergerakan harga. Ia membantu kita menentukan sama ada sesuatu pasangan mata wang itu overbought atau oversold. Apabila RSI berada di atas 70, pasangan tersebut dianggap overbought, manakala di bawah 30, ia dianggap oversold. 2. Memahami Indikator Stochastic Indikator Stochastic pula memberikan kita gambaran tentang momentum harga. Ia menunjukkan di mana harga penutupan berada dalam julat harga untuk tempoh tertentu. Apabila garis %K melintasi garis %D dari bawah ke atas, ini boleh menjadi isyarat beli, dan sebaliknya untuk isyarat jual. 3. Menggunakan RSI dan Stochastic Bersama-sama Isyarat Beli: Apabila RSI menunjukkan bahawa pasaran adalah oversold dan Stochastic menunjukkan isyarat beli. Isyarat Jual: Apabila RSI menunjukkan bahawa pasaran adalah overbought dan Stochastic menunjukkan isyarat jual. Penting untuk diingat bahawa tiada indikator yang sempurna. Oleh itu, sentiasa gunakan analisis tambahan dan pengurusan risiko yang baik dalam strategi trading anda. Dengan memahami dan menggunakan RSI serta Stochastic, anda dapat meningkatkan keupayaan anda untuk membuat keputusan trading yang lebih tepat. Selamat trading!

2009.07.25
Panduan Lengkap Heiken Ashi untuk Trader
MetaTrader4
Panduan Lengkap Heiken Ashi untuk Trader

Hai rakan-rakan trader! Hari ini kita akan membincangkan tentang satu alat analisis yang semakin popular dalam kalangan trader, iaitu Heiken Ashi. Untuk sesiapa yang baru dalam dunia trading, mungkin istilah ini agak asing. Namun, jangan risau! Saya di sini untuk membantu anda memahami dengan lebih baik. Apa itu Heiken Ashi? Heiken Ashi adalah salah satu jenis carta yang digunakan untuk menganalisis pergerakan harga. Berbanding dengan carta candlestick biasa, Heiken Ashi memberikan gambaran yang lebih jelas tentang arah aliran pasaran. Ia membantu kita untuk mengelakkan 'noise' atau bunyi bising dalam pasaran, dan memudahkan kita untuk membuat keputusan yang lebih bijak. Kenapa Heiken Ashi Penting untuk Trader? Membantu Menentukan Trend: Heiken Ashi sangat berguna untuk mengenal pasti trend semasa, sama ada pasaran sedang bullish (naik) atau bearish (turun). Kurangkan Kebisingan: Dengan menggunakan teknik pengiraan tertentu, Heiken Ashi mengurangkan fluktuasi harga yang tidak perlu, memberikan kita gambaran yang lebih jelas. Memudahkan Pengambilan Keputusan: Dengan carta yang lebih bersih dan mudah dibaca, trader dapat membuat keputusan dengan lebih cepat dan tepat. Bagaimana Cara Menggunakan Heiken Ashi? Untuk mula menggunakan Heiken Ashi, anda hanya perlu memilih carta Heiken Ashi pada platform trading anda. Berikut adalah langkah-langkah mudah: Pilih pasangan mata wang yang anda ingin trade. Tukar jenis carta kepada Heiken Ashi di platform trading anda. Analisis carta untuk menentukan arah aliran dan buat keputusan trading berdasarkan maklumat tersebut. Ingat, walau apa pun alat yang anda gunakan, adalah penting untuk sentiasa melakukan analisis yang mendalam dan tidak bergantung sepenuhnya kepada satu teknik sahaja. Semoga artikel ini membantu anda dalam memahami Heiken Ashi dengan lebih baik. Selamat trading dan semoga berjaya!

2009.07.20
Ramalan Harga Seterusnya dengan Neural Network: Panduan untuk Trader
MetaTrader4
Ramalan Harga Seterusnya dengan Neural Network: Panduan untuk Trader

Penulis: gpwr Sejarah Versi: 26/06/2009 - menambah indikator baru BPNN Predictor dengan Smoothing.mq4, di mana harga diratakan menggunakan EMA sebelum ramalan dibuat. 20/08/2009 - membetulkan kod pengiraan fungsi pengaktifan neuron untuk mengelakkan pengecualian aritmetik; mengemas kini BPNN.cpp dan BPNN.dll 21/08/2009 - menambah pembersihan memori pada akhir pelaksanaan DLL; mengemas kini BPNN.cpp dan BPNN.dll Teori Ringkas tentang Neural Networks: Neural network adalah model yang boleh disesuaikan bagi output sebagai fungsi input. Ia terdiri daripada beberapa lapisan: lapisan input, yang terdiri daripada data input lapisan tersembunyi, yang terdiri daripada nod pemprosesan yang dipanggil neuron lapisan output, yang terdiri daripada satu atau beberapa neuron, yang outputnya adalah output rangkaian. Semua nod pada lapisan bersebelahan saling berkaitan. Sambungan ini dipanggil sinaps. Setiap sinaps mempunyai koefisien penskalaan yang ditetapkan, di mana data yang diteruskan melalui sinaps didarab. Koefisien penskalaan ini disebut sebagai berat (w[i][j][k]). Dalam Feed-Forward Neural Network (FFNN), data dipindahkan dari input ke output. Berikut adalah contoh FFNN dengan satu lapisan input, satu lapisan output dan dua lapisan tersembunyi: Topologi FFNN sering disingkat seperti berikut: <# input> - <# neuron dalam lapisan tersembunyi pertama> - <# neuron dalam lapisan tersembunyi kedua> -...- <# output>. Rangkaian di atas boleh dirujuk sebagai rangkaian 4-3-3-1. Data diproses oleh neuron dalam dua langkah, yang ditunjukkan dalam bulatan dengan tanda penjumlahan dan tanda langkah: Semua input didarab dengan berat yang berkaitan dan dijumlahkan Jumlah yang terhasil diproses oleh fungsi pengaktifan neuron, yang outputnya adalah output neuron. Fungsi pengaktifan neuron inilah yang memberikan nonlinieriti kepada model neural network. Tanpa itu, tidak ada sebab untuk mempunyai lapisan tersembunyi, dan neural network menjadi model autoregresif linear (AR). Fail perpustakaan yang dilampirkan untuk fungsi NN membolehkan pemilihan antara tiga fungsi pengaktifan: sigmoid sigm(x)=1/(1+exp(-x)) (#0) tangen hiperbolik tanh(x)=(1-exp(-2x))/(1+exp(-2x)) (#1) fungsi rasional x/(1+|x|) (#2) Syarat pengaktifan bagi fungsi ini adalah x=0. Syarat ini boleh dipindahkan sepanjang paksi x terima kasih kepada input tambahan bagi setiap neuron, yang dipanggil bias input, yang juga mempunyai berat yang ditetapkan kepadanya. Bilangan input, output, lapisan tersembunyi, neuron dalam lapisan ini, dan nilai berat sinaps sepenuhnya menggambarkan FFNN, iaitu model nonlinear yang ia hasilkan. Untuk mencari berat, rangkaian mesti dilatih. Semasa latihan terawasi, beberapa set input lalu dan output yang diharapkan yang berkaitan dimasukkan ke dalam rangkaian. Berat dioptimumkan untuk mencapai kesalahan terkecil antara output rangkaian dan output yang diharapkan. Kaedah pengoptimuman berat yang paling mudah adalah back-propagation kesalahan, yang merupakan kaedah penurunan gradien. Fungsi latihan yang dilampirkan Train() menggunakan varian kaedah ini, dipanggil Improved Resilient back-Propagation Plus (iRProp+). Kaedah ini diterangkan di sini http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.17.1332 Kelemahan utama kaedah pengoptimuman berasaskan gradien adalah bahawa ia sering mencari minimum tempatan. Untuk siri yang bercampur seperti siri harga, permukaan kesilapan latihan mempunyai bentuk yang sangat kompleks dengan banyak minimum tempatan. Untuk siri sedemikian, algoritma genetik adalah kaedah latihan yang lebih disukai. Fail yang dilampirkan: BPNN.dll - fail perpustakaan BPNN.zip - arkib semua fail yang diperlukan untuk menyusun BPNN.dll dalam C++ BPNN Predictor.mq4 - indikator yang meramalkan harga buka masa depan BPNN Predictor with Smoothing.mq4 - indikator yang meramalkan harga buka yang diratakan Fail BPNN.cpp mempunyai dua fungsi: Train() dan Test(). Train() digunakan untuk melatih rangkaian berdasarkan nilai input lalu dan output yang diharapkan yang diberikan. Test() digunakan untuk mengira output rangkaian menggunakan berat yang dioptimumkan, yang ditemui oleh Train(). Berikut adalah senarai parameter input (hijau) dan output (biru) bagi Train(): double inpTrain[] - Data latihan input (1D array yang membawa 2D data, lama dahulu) double outTarget[] - Data sasaran output untuk latihan (2D data sebagai 1D array, paling lama dahulu) double outTrain[] - Array output 1D untuk menyimpan output rangkaian dari latihan int ntr - # set latihan int UEW - Gunakan Berat Eksternal untuk inisialisasi (1=guna extInitWt, 0=guna rnd) double extInitWt[] - Array 1D input untuk menyimpan array 3D berat awal luar double trainedWt[] - Array output 1D untuk menyimpan array 3D berat terlatih int numLayers - # lapisan termasuk input, tersembunyi dan output int lSz[] - # neuron dalam lapisan. lSz[0] adalah # input rangkaian int AFT - Jenis fungsi pengaktifan neuron (0:sigm, 1:tanh, 2:x/(1+x)) int OAF - 1 mengaktifkan fungsi pengaktifan untuk lapisan output; 0 menonaktifkan int nep - Max # epoch latihan double maxMSE - Max MSE; latihan berhenti setelah maxMSE dicapai. Berikut adalah senarai parameter input (hijau) dan output (biru) bagi Test(): double inpTest[] - Data ujian input (2D data sebagai 1D array, paling lama dahulu) double outTest[] - Array output 1D untuk menyimpan output rangkaian dari latihan (paling lama dahulu) int ntt - # set ujian double extInitWt[] - Array 1D input untuk menyimpan array 3D berat awal luar int numLayers - - # lapisan termasuk input, tersembunyi dan output int lSz[] - # neuron dalam lapisan. lSz[0] adalah # input rangkaian int AFT - Jenis fungsi pengaktifan neuron (0:sigm, 1:tanh, 2:x/(1+x)) int OAF - 1 mengaktifkan fungsi pengaktifan untuk lapisan output; 0 menonaktifkan Keputusan untuk menggunakan fungsi pengaktifan di lapisan output atau tidak (nilai parameter OAF) bergantung pada sifat output. Jika output adalah binari, yang sering berlaku dalam masalah klasifikasi, maka fungsi pengaktifan harus digunakan di lapisan output (OAF=1). Sila ambil perhatian bahawa fungsi pengaktifan #0 (sigmoid) mempunyai tahap tepu 0 dan 1 manakala fungsi pengaktifan #1 dan #2 mempunyai tahap -1 dan 1. Jika output rangkaian adalah ramalan harga, maka tiada fungsi pengaktifan yang diperlukan di lapisan output (OAF=0). Contoh menggunakan perpustakaan NN: BPNN Predictor.mq4 - meramalkan harga buka masa depan. Input rangkaian adalah perubahan harga relatif: x[i]=Open[test_bar]/Open[test_bar+delay[i]]-1.0 di mana delay[i] dikira sebagai nombor Fibonacci (1,2,3,5,8,13,21..). Output rangkaian adalah perubahan relatif yang diramalkan bagi harga seterusnya. Fungsi pengaktifan dimatikan di lapisan output (OAF=0). Input indikator: extern int lastBar - Bar terakhir dalam data lalu extern int futBars - # bar masa depan untuk diramalkan extern int numLayers - # lapisan termasuk input, tersembunyi & output (2..6) extern int numInputs - # input extern int numNeurons1 - # neuron dalam lapisan tersembunyi atau output pertama extern int numNeurons2 - # neuron dalam lapisan tersembunyi atau output kedua extern int numNeurons3 - # neuron dalam lapisan tersembunyi atau output ketiga extern int numNeurons4 - # neuron dalam lapisan tersembunyi atau output keempat extern int numNeurons5 - # neuron dalam lapisan tersembunyi atau output kelima extern int ntr - # set latihan extern int nep - Max # epoch extern int maxMSEpwr - sets maxMSE=10^maxMSEpwr; latihan berhenti < maxMSE extern int AFT - Jenis fungsi aktivasi (0:sigm, 1:tanh, 2:x/(1+x)) Indikator ini memplot tiga lengkung pada carta: warna merah - ramalan harga masa depan warna hitam - harga buka latihan lalu, yang digunakan sebagai output yang diharapkan untuk rangkaian warna biru - output rangkaian untuk input latihan BPNN Predictor.mq4 - meramalkan harga buka yang diratakan masa depan. Ia menggunakan pemadaman EMA dengan tempoh smoothPer. Penyediaan Semua: Salin BPNN.DLL yang dilampirkan ke C:\Program Files\MetaTrader 4\experts\libraries Dalam metatrader: Alat - Pilihan - Penasihat Pakar - Benarkan import DLL Anda juga boleh menyusun fail DLL anda sendiri menggunakan kod sumber dalam BPNN.zip. Saranan: Satu rangkaian dengan tiga lapisan (numLayers=3: satu input, satu tersembunyi dan satu output) sudah cukup untuk kebanyakan kes. Menurut Teorem Cybenko (1989), rangkaian dengan satu lapisan tersembunyi mampu menghampiri sebarang fungsi multivariat berterusan dengan tahap ketepatan yang diingini; rangkaian dengan dua lapisan tersembunyi mampu menghampiri sebarang fungsi multivariat tidak berterusan: Bilangan neuron yang optimum dalam lapisan tersembunyi boleh dicari melalui percubaan dan ralat. Berikut adalah "peraturan jari" yang boleh ditemui dalam literatur: # neuron tersembunyi = (# input + # output)/2, atau SQRT(# input * # output). Ikuti kesalahan latihan, yang dilaporkan oleh indikator dalam tetingkap pakar metatrader. Untuk generalisasi, bilangan set latihan (ntr) harus dipilih 2-5 kali ganda dari jumlah berat dalam rangkaian. Sebagai contoh, secara default, BPNN Predictor.mq4 menggunakan rangkaian 12-5-1. Jumlah berat adalah (12+1)*5+6=71. Oleh itu, bilangan set latihan (ntr) harus sekurang-kurangnya 142. Konsep generalisasi dan memori (over-fitting) diterangkan pada graf di bawah. Data input ke rangkaian harus ditransformasi menjadi stasionari. Harga Forex bukan stasionari. Ia juga disyorkan untuk menormalkan input ke julat -1..+1. Graf di bawah menunjukkan fungsi linear y=b*x (x-input, y-output) yang outputnya dicemari oleh bunyi. Bunyi tambahan ini menyebabkan output fungsi yang diukur (titik hitam) menyimpang dari garis lurus. Fungsi y=f(x) boleh dimodelkan oleh neural network feed forward. Rangkaian dengan bilangan berat yang besar boleh dipadankan dengan data yang diukur dengan kesalahan sifar. Tingkah laku ini ditunjukkan sebagai lengkung merah yang melalui semua titik hitam. Namun, lengkung merah ini tidak ada kaitan dengan fungsi linear asal y=b*x (hijau). Apabila rangkaian over-fitted ini digunakan untuk meramalkan nilai masa depan fungsi y(x), ia akan menghasilkan kesalahan besar disebabkan oleh kebolehubahan bunyi yang ditambah. Sebagai balasan untuk berkongsi kod ini, penulis mempunyai sedikit permintaan. Jika anda berjaya membina sistem perdagangan yang menguntungkan berdasarkan kod ini, sila kongsikan idea anda dengan saya melalui emel secara langsung ke vlad1004@yahoo.com. Semoga berjaya!

2009.06.26
Indeks Dimensi Fraktal dan Langkah EMA: Panduan Lengkap untuk Trader
MetaTrader4
Indeks Dimensi Fraktal dan Langkah EMA: Panduan Lengkap untuk Trader

Selamat datang, rakan-rakan trader! Hari ini, kita akan bincangkan tentang dua alat yang sangat berguna dalam analisis teknikal: Indeks Dimensi Fraktal dan Langkah EMA. Saya yakin, kedua-duanya dapat membantu anda dalam membuat keputusan trading yang lebih tepat. Langkah EMA Langkah_Ema_LK.mq4 adalah penapis gabungan antara langkah dan EMA yang saya hasilkan beberapa ketika dahulu. Dalam sistem ini, kita menukar sedikit lag/ harga kepada lag/ masa dan dengan itu, pergerakan harga menjadi lebih ketara. Indeks Dimensi Fraktal (FDI) Seterusnya, kita ada LK_FDI_V2.mq4, iaitu versi saya untuk Indeks Dimensi Fraktal. Ia mengikuti prinsip yang hampir sama dengan FGDI.mq4 yang telah dikongsikan di tempat lain dalam pangkalan kod. Namun, terdapat sedikit perbezaan terutamanya ketika berhadapan dengan tempoh yang kecil: contohnya, tempoh 2 bar (2 pemerhatian) dianggap rawak (~1.58) dalam versi ini, sedangkan FGDI memberikan nilai di atas 2.0. Versi ini juga menyokong mod berat linear yang mungkin memberikan sedikit kurang lag dalam beberapa kes. dFDI Selain itu, kita ada dFDI (garisan hijau dalam carta), yang merupakan FDI pada derivatif pertama (kadar perubahan). Interpretasi Bacaan FDI FDI di bawah 1.5: Menunjukkan kita sedang dalam aliran yang jelas. FDI pada 1.5: Menunjukkan kita berada dalam pasaran yang rawak. FDI di atas 1.5: Menunjukkan kita berada dalam pasaran yang dalam julat. Bacaan dFDI yang tinggi biasanya menunjukkan bahawa aliran tersebut stabil. Semoga panduan ini bermanfaat untuk anda dalam trading! Jangan lupa untuk mencuba dan lihat bagaimana alat ini dapat membantu anda dalam analisis pasaran.

2009.06.25
Pertama Sebelumnya 346 347 348 349 350 351 352 353 354 355 356 Seterusnya Terakhir