×
img

神经关注森林:基于 Transformer 的森林改进(英文版)

发布者:wx****6e
2023-04-22
825 KB 10 页
人工智能(AI)
文件列表:
神经关注森林:基于 Transformer 的森林改进【英文版】.pdf
下载文档
英文标题:Neural Attention Forests: Transformer-Based Forest Improvement中文摘要:本研究提出了一种新的方法 NAFA(神经注意森林),该方法将注意机制引入了随机森林,通过在决策树叶子节点的数据和随机森林本身之间分配由特定形式的神经网络计算得出的注意力权重,在 Nadaraya-Watson 核回归框架下实现了回归和分类任务。英文摘要:A new approach called NAF (the Neural Attention Forest) for solvingregression and classification tasks under tabular training data is proposed.The main idea behind the proposed NAF model is to introduce the attentionmechanism into the random forest by assigning attention weights calculated byneural n

加载中...

已阅读到文档的结尾了

下载文档

网友评论>