admin管理员组文章数量:1650765
TensorFlowOnSpark、PySpark
Wide&Deep模型报错
ValueError: Items of feature_columns must be a _FeatureColumn. Given (type <class 'collections._IndicatorColumn'>)
原因分析
单机模型运行同样代码可以正常运行,但使用TFCluster.run 执行就会出现以上类型错误
主要是spark将方法广播到executor执行时序列化过程出现问题,此时无法将TensorFlow项目中_FeatureColumn类型正确序列化,导致feature_column.py中报检查类型出错
for column in feature_columns:
print("==="+str(type(column)))
if not isinstance(column, _FeatureColumn):
raise ValueError('Items of feature_columns must be a _FeatureColumn. '
'Given (type {}): {}.'.format(type(column), column))
解决办法,将如下代码加到driver程序的python文件中
import collections
collections.namedtuple.__hijack = 1
当__hijack有值后,pyspark项目中serializer.py的如下方法内容将不会被执行
def _hijack_namedtu
本文标签: featurecolumnsfeaturecolumnValueErrorItemscollections
版权声明:本文标题:ValueError: Items of feature_columns must be a _FeatureColumn. Given (type class 'collections._Indi 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://m.elefans.com/dongtai/1729534659a1205262.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论