第28章 曾经的自己
第28章 曾经的自己 (第1/2页)周五,周昀和汇金的人正式签订了预研项目合同,只要预研项目能够达到预期标准,那接下来就是真正的大项目。
双方通过一周的时间,沟通了需求还有汇金需要提供的资源。
汇金的需求很简单,之前就已经谈的差不多了,现在只是更加明确一点,
他们需要的是一个能够预测某只单一股票的模型,消耗资源要尽可能少,准确率要尽可能高,这也是后续他们为周昀提供多少支持的重要依据。
至于资源方面,财大气粗的汇金提供了64张H100的显卡集群,还有相互配套的处理器和内存,其价值已经超过了千万。
因为说是预研项目,但其实除了在数据量和模型架构上有所阉割之外,现在要做的版本和最终版本在最核心的东西上是差不多的。
毕竟只要能精准预测一支股票,就能精准预测无数支,两者之间无非就是数据量上的差别。
汇金显然知道其中的难度,所以才会这么大方。
在周昀的预估中,这些资源应该是绰绰有余的,因为他研究的模型在算力的消耗上本就比市面上的同类型模型要低。
汇金还支付了周昀一个月两万的劳务费,按照合同,他需要在一年之内完成预研项目,如果失败了,他就要加入汇金。
按理来说,这种大项目,这样的验收时间并不算富裕,不过周昀有信心一年之内搞定。
实验室里,周昀并没有第一时间就开始设计方案,反倒是开始看起了论文。
因为不管是前世还是现在,他接触的都是“小模型”,这里的小模型指的是LSTM、CNN、FCN这种结构单一,参数量不大的轻量级神经网络。
而他现在要做的项目则需要用到真正意义上的多模态大模型,这种大模型现在普遍都是基于Transformer架构,
虽然Transformer非常厉害,但是也有一个缺点,因为他的主要核心Attention也就是注意力机制,
这种算法的时间复杂度复杂度是O(n^2),所以需要的计算量非常大,这也是为什么现在市面上的大模型训练需要的显卡都是几千几万张。
大模型和小模型之间除了算力消耗和成本上有着巨大差异,在整体架构上也有着明显的差异。
一个小模型可能只需要几百行代码就能完整的写出来,然后开始运行。
而一个真正意义上的大模型想要正常运行,除了其核心代码之外还需要各种的配套功能的代码,这些加起来几万行都算是少的了。
他在这方面的,不管是经验还是知识都很欠缺,所以第一步就是——看文献,至少要熟知多模态大模型领域所有的先进技术之后,他才会开始计划怎么将现有参数量不大的模型进行升级。
其实这一步应该是在谈项目之前就做的,只不过周昀那个模型的性能实在太优秀了,
再加上他在和汇金的人谈判的时候表现得太过淡定,这让别人以为他在这方面有了一定的积累,这才直接敲定了项目。
不过这都无伤大雅,凭他现在的英语水平和理解能力一天刷个十几篇论文不是问题,最多一个月,他就能把大模型领域的技术摸得差不多。
(本章未完,请点击下一页继续阅读)