但神经网络的模型过于复杂,参数过多,很容易出现一些BUG。
        简单来说,不是神经网络模型不够好,而是计算资源不够多。
        如果李杰不是掏出全新的算法,仅凭他手上的这点资源,哪有资格玩这种东西。
        老老实实去玩Transformer模型不好吗?
        还真不行。
        Transformer模型那是GPT的领域,李杰没想着跟对方竞争。
        另外。
        他也没想着搞一个什么万能的大模型。
        这篇论文的重点在于图片修复,文物修复,其他后续的开发,他只是留了一个引子。
        通俗的形容,他在人工智能赛道开了一条新路。
        目前,他只开辟了一条很狭小的小道,走图片修复完全没问题。
        内容未完,下一页继续阅读