神经网络变得轻松(第十一部分):自 GPT 获取
神经网络变得轻松(第十一部分):自 GPT 获取
也许,GPT-3 是目前已有语言类神经网络中最先进的模型之一,它的最大变体可包含 1750 亿个参数。 当然,我们不打算在家用 PC 上创建如此庞然之物。 然而,我们可以看看在我们的操作中能够采用哪种体系解决方案,以及如何从中受益。
多层感知机与反向传播算法
多层感知机与反向传播算法
这两种方法的普及性日益增加,因此在 Matlab、R、Python、C++ 等领域开发了大量的库,它们接收到一个训练集作为输入,并自动为问题创建合适的网络。让我们试着理解基本的神经网络类型是如何工作的(包括单神经元感知机和多层感知机)。我们将探讨一个令人兴奋的算法,它负责网络训练 - 梯度下降和反向传播。现有的复杂模型往往基于这样简单的网络模型。
神经网络变得轻松(第十部分):多目击者关注
神经网络变得轻松(第十部分):多目击者关注
我们以前曾研究过神经网络中的自关注机制。 在实践中,现代神经网络体系结构会采用多个并行的自关注线程来查找序列元素之间的各种依存关系。 我们来研究这种方法的实现,并评估其对整体网络性能的影响。
神经网络变得轻松(第九部分):操作归档
神经网络变得轻松(第九部分):操作归档
我们已经经历了很长一段路,并且函数库中的代码越来越庞大。 这令跟踪所有连接和依赖性变得难以维护。 因此,我建议为先前创建的代码创建文档,并保持伴随每个新步骤进行更新。 正确准备的文档将有助我们看到操作的完整性。
直推和主动机器学习中的梯度提升
直推和主动机器学习中的梯度提升
在本文中,我们将探讨利用真实数据的主动机器学习方法,并讨论它们的优缺点。也许你会发现这些方法很有用,并将它们包含在你的机器学习模型库中。直推是由支持向量机(SVM)的共同发明者弗拉基米尔·瓦普尼克(Vladimir Vapnik)提出的。
神经网络变得轻松(第八部分):关注机制
神经网络变得轻松(第八部分):关注机制
在之前的文章中,我们已经测试了组织规划神经网络的各种选项。 我们还研究了自图像处理算法中借鉴而来的卷积网络。 在本文中,我建议研究关注机制,它的出现为开发语言模型提供了动力。
神经网络变得轻松(第七部分):自适应优化方法
神经网络变得轻松(第七部分):自适应优化方法
在之前的文章中,我们利用随机梯度下降法针对网络中的所有神经元按照相同的学习率训练神经网络。 在本文中,我提议着眼于自适应学习方法,该方法能够改变每个神经元的学习率。 我们还将研究这种方法的利弊。
无需 Python 或 R 语言知识的 Yandex CatBoost 机器学习算法
无需 Python 或 R 语言知识的 Yandex CatBoost 机器学习算法
本文通过一个具体的例子提供了机器学习过程的主要阶段的代码和描述。您不需要 Python 或 R 语言知识就能够获得模型。此外,基本的MQL5知识已经足够了- 这正是我的水平。因此,我希望这篇文章能为广大读者提供一个很好的指导,帮助那些对评估机器学习能力感兴趣的人,并在他们的课程中实现这些能力。
神经网络变得轻松(第六部分):神经网络学习率实验
神经网络变得轻松(第六部分):神经网络学习率实验
我们之前已研究过各种类型的神经网络及其实现。 在所有情况下,训练神经网络时都使用梯度下降法,为此我们需要选择学习率。 在本文中,我打算通过示例展示正确选择学习率的重要性,及其对神经网络训练的影响。
神经网络变得轻松(第四部分):循环网络
神经网络变得轻松(第四部分):循环网络
我们继续研究神经网络的世界。 在本文中,我们将研究另一种类型的神经网络,循环网络。 此类型建议与时间序列配合使用,其在 MetaTrader 5 交易平台中由价格图表呈现。
神经网络在交易中的实际应用。 是时候进行实践了
神经网络在交易中的实际应用。 是时候进行实践了
本文提供了在 Matlab 平台上实际运用神经网络模块的讲述和指南。 它还涵盖了运用神经网络模块创建交易系统的主要方面。 为了能够在一篇文章中厘清复杂内容,我必须对其进行修改,从而在一个程序中组合若干个神经网络模块函数。
神经网络轻松制作
神经网络轻松制作
人工智能往往伴随着极其复杂和难以理解的事物。 同时,人工智能在日常生活中也越来越多地被提及。 不同的媒体也经常发布有关运用神经网络成就的新闻。 本文的目在于展示任何人都可以轻松创建神经网络,并在交易中运用 AI 成就。
深度神经网络 (第七部分)。 神经网络的融合: 堆叠
深度神经网络 (第七部分)。 神经网络的融合: 堆叠
我们继续构建融合。 这次,之前创建的融合袋将辅以可训练的合并器 — 深度神经网络。 一个神经网络在修剪后合并了 7 个最佳融合输出。 第二个将融合的所有 500 个输出作为输入,修剪并合并它们。 神经网络将使用 Python 的 keras/TensorFlow 软件包构建。 该软件包的功能也会简要介绍。 还会进行测试并比较装型融合和堆叠融合的分类品质。
深度神经网络 (第六部分)。 神经网络分类器的融合: 引导聚合
深度神经网络 (第六部分)。 神经网络分类器的融合: 引导聚合
本文讨论了用引导聚合结构构建并训练神经网络融合的方法。 它还确定了构成融合的各独立神经网络分类器的超参数优化的特性。 本文中所创建的神经网络融合的品质将与该系列前一篇文章中获得的优化神经网络的品质进行比较。 已考虑到进一步提高融合分类品质的可能性。
深度神经网络 (第五部分)。 DNN 超参数的贝叶斯优化
深度神经网络 (第五部分)。 DNN 超参数的贝叶斯优化
本文研究利用贝叶斯优化深度神经网络 (DNN) 超参数,获取各种训练变体的可能性。 比较不同训练变体中最优超参数 DNN 的分类品质。 DNN 最优超参数的有效性的深度已在前瞻性测试中得以验证。 改善分类品质的可能方向也已确定。
用随机森林预测趋势
用随机森林预测趋势
本文使用Rattle包自动进行模式识别,来预测外汇市场的多头和空头。本文对初学者和有经验的交易者都适用。
机器学习:支持向量机如何应用于交易
机器学习:支持向量机如何应用于交易
长时间以来,支持向量机一直被应用于生物信息学和应用数学等领域,以评估复杂数据集以及提取可用于数据分类的有用模式。本文会研究何为支持向量机、它们的工作方式,以及为什么说它们在提取复杂模式时非常有用。之后,我们再研究如何将其应用于市场,并发挥交易建议的潜在作用。本文将提供使用支持向量机学习工具的有效示例,让读者能够试验自己的交易。
深度神经网络 (第 III 部)。样品选择和降维
深度神经网络 (第 III 部)。样品选择和降维
本文是一系列有关深层神经网络的延续文章。在此, 我们将研究选择样本 (消除噪声), 降低输入数据的维度, 并在数据准备期间将数据集合划分为训练/验证/测试集合, 以便训练神经网络。
深度神经网络 (第 I 部)。准备数据
深度神经网络 (第 I 部)。准备数据
本系列文章继续探索深度神经网络 (DNN) 在众多应用领域 (包括交易) 中的运用。在此会探索本主题的新维度, 同时使用实际的实验测试新的方法和思路。本系列的第一篇文章致力于为 DNN 准备数据。
机器学习模型的变量评估和选择
机器学习模型的变量评估和选择
本文重点介绍机器学习模型中输入变量(预测因子)的选择,预处理以及评估的相关细节。同时将探讨新的方法和预测因子深度分析及其对模型过度拟合可能的影响。模型的总体效果很大程度上取决于这一阶段的结果。我们将分析两个包,它们分别提供预测因子选择的新老方法。
物美价廉的神经网络 - 链接 NeuroPro 与 MetaTrader 5
物美价廉的神经网络 - 链接 NeuroPro 与 MetaTrader 5
是否用于交易的特殊神经网络程序好似很昂贵和复杂,或是与此相反,太简单?来试试 NeuroPro。它是免费的,并且包含针对业余爱好者的最佳功能集合。这篇文章将告诉您如何结合 MetaTrader 5 来使用它。
神经网络: 智能交易系统自我优化
神经网络: 智能交易系统自我优化
是否有可能开发一款能够根据代码命令, 定期优化开仓和平仓条件的智能交易系统?如果我们以模块化的形式实现一个神经网络 (多层感知器) 来分析历史并提供策略, 会发生什么?我们可以做到 EA 每月(每周, 每天或每小时) 进行神经网络优化, 然后继续其工作。因此, 我们可以开发一款自我优化 EA。
第三代神经网络:深度网络
第三代神经网络:深度网络
本文致力于介绍一种新的有前景的机器学习方向 — 深度学习或者更准确的说,深度神经网络。简要回顾第二代神经网络,它们的连结架构和主要类型,学习的方法和规则以及缺点,随后介绍第三代神经网络的发展,它们的主要类型,特点和学习方法。创建并训练一个深度神经网络,由真实数据通过堆栈式自动编码器权重进行初始化。从输入数据的选择到数量化求解的所有步骤都会详细讲述。文章的最后部分包含一个深度神经网络的EA实例,其中带有一个MQL4/R的内置指标。
神经网络:从理论到实践
神经网络:从理论到实践
现在,每一位交易者肯定听说过神经网络并知道使用它们有多酷。大多数人相信那些能够使用神经网络的人是某种超人。在本文中,我将尝试向您解释神经网络架构,描述其应用并提供几个实践例子。
连接 NeuroSolutions 神经网络
连接 NeuroSolutions 神经网络
除了创建神经网络,NeuroSolutions 软件套件允许将它们导出为 DLL。本文介绍创建神经网络、生成 DLL 并将其连接至"EA 交易"以在 MetaTrader 5 中交易的过程。
大爆炸-大坍缩(BBBC)算法
大爆炸-大坍缩(BBBC)算法
本文介绍了大爆炸-大坍缩方法,该方法包含两个关键阶段:随机点的循环生成,以及将这些点压缩至最优解。该方法结合了探索与精炼过程,使我们能够逐步找到更优的解,并开拓新的优化可能性。