技术伦理
技术伦理的相关文献在2000年到2022年内共计309篇,主要集中在伦理学(道德哲学)、信息与知识传播、自然科学理论与方法论
等领域,其中期刊论文278篇、会议论文31篇、专利文献151900篇;相关期刊221种,包括黑河学刊、云南师范大学学报(哲学社会科学版)、东北大学学报(社会科学版)等;
相关会议21种,包括城市财政与政府创新中青年学者学术研讨会、第六届南北五校哲学博士生论坛、中国自然辩证法研究会2013年学术年会等;技术伦理的相关文献由383位作者贡献,包括吴太胜、陈凡、侯剑华等。
技术伦理—发文量
专利文献>
论文:151900篇
占比:99.80%
总计:152209篇
技术伦理
-研究学者
- 吴太胜
- 陈凡
- 侯剑华
- 周莉娟
- 李宏伟
- 杜宝贵
- 赵迎欢
- 郭利强
- 闫坤如
- 陈首珠
- 信鹏开
- 刘海明
- 刘莹莹
- 刘越
- 吕宛蓉
- 宫权凌
- 庄子楦
- 张建松
- 张明国
- 张洋
- 张锦英
- 文成伟
- 朱勤
- 朱芊逸
- 李三虎
- 李啸
- 李娜娜
- 李琳
- 王康宁
- 盛国荣
- 胡晓萌
- 莫尊理
- 蔡永海
- 薛桂波
- 许和隆
- 邓姗
- 郑容坤
- 郑明
- 陈万求
- 陈亚建
- 高尚荣
- 高建敏
- Guoming Yu
- Irada M. Huseynova
- Jalal A. Aliyev
- LIU Hao
- Livia Durac
- Xiaomeng Geng
- Xue Guibo
- Yan Kunru
-
-
于思洋
-
-
摘要:
从媒介本体论视角来看,融媒体时代是将前文字时代与后文字时代传播特征合而为一的重要阶段。彼得斯“元素型媒介”的概念为重解媒介何为、融媒体意义为何两个问题提供了新思路,即将媒介看作基础设施,将融媒体看作媒介回归本真的标志。融媒体既然是对媒介概念再审视后的距离媒介本体论最近的媒介形式,其意义重大。当前,学界存在媒介生态链中媒介承载力与生产方式的优劣之争问题,还面对资本过度浸入问题,以及技术与人、技术与人的需求之间的关系问题。面对这些问题,应以价值为舵,内容为舟,形式为海;规制互联网平台,打破“第四堵墙”;按图索骥,平衡媒介技术需求与供应,为融媒体发展困境之突破探索参考路径。
-
-
吉晓东
-
-
摘要:
技术伦理是对技术行为进行伦理反思,使技术设计者、技术生产和销售者,以及技术消费者在技术活动过程中,不仅仅思考技术的可能性,还要对其目的手段以及后果的合理和合法性进行深刻反思。地方高校通信工程专业肩负着培养适应区域经济社会发展和通信与电子信息领域技术需求的德、智、体、美、劳全面发展的高级工程技术型人才,理应引导学生树立和践行社会主义核心价值观,必须将技术伦理观念植根于专业人才培养的整个过程,通过学生对技术活动目的、作用与价值的认知来培养其职业发展所需的职业道德、职业素质和职业精神。
-
-
杨林霞
-
-
摘要:
以“数”为本和以“人”为本相反相成是算法推荐的基本技术伦理特征。算法推荐衍生的信息茧房具有双重反向价值功能,一则促使信息窄化,易导致用户信息偏食、知识固化、个性偏执等,二则强化信息聚合,有助于提高用户信息获取效率、促进知识发现等。此双重反向价值功能亦存在于图书馆信息服务中,图书馆应统筹信息服务的主体、对象、工具、环境等要素,采取协同治理的路径抑制其负价值、增强其正价值。
-
-
胡万鹏;
孟佳林
-
-
摘要:
在智能传播中,算法偏见所产生的影响已逐渐延伸到社会生活的多个领域,而其溯源问题在问题导向和技术的逆向检视逻辑之下却难以深入。本文在建构算法新闻主体的基础上,以算法技术、人类和社会力量三个要素为逻辑起点,试图以结构化的视角锚定三者之间的关系,从而揭示算法技术的局限、人类主体性对算法的主导和社会力量与算法技术的共谋,探寻算法偏见产生的根源。
-
-
单纯;
叶茂
-
-
摘要:
刷脸识别技术在识别人脸层面的巨大优势,使得其应用场景囊括政府层面和非政府层面,且安全、便捷与信任传递的应用价值得到普遍认可。然而,技术社会中人的角色在被不断弱化,技术与社会间的双向促进却在一定维度上减损了人的主体性。刷脸识别因涉及人脸的分析使得构建体系不能止于纯粹的法学思考,需要技术伦理视角的引入。其中,刷脸识别在技术伦理层面的挑战大致表现为技术至上主义对人性认知的冲击,与互联网发展异态相耦合,及人类社群与技术社群的颉颃。鉴于此,关于刷脸识别中的技术伦理审视及规制,应从刷脸识别的理论支持层面出发,进而探索出符合同一与差异的辩证规制原理,明确人脸识别技术的使用边界以及强化政府监管责任的中国模式。
-
-
全燕
-
-
摘要:
人脸识别算法技术曾是安防领域的专利,现在被越来越多地应用在商业和社交媒体领域,进入到了日常生活实践,伴随而来的技术话语也被显著改写。算法技术重新配置了人的身份和主体性,人脸被重新概念化、政治化,从而产生了一种微观政治现象即脸性政治。在脸性政治的话语框架下,算法系统的社会征服和机器役使机制是两种互补的、相互加强的权力共存。当人们受到算法权力的控制,意识到自我与人脸识别系统之间的一种不确定和危险的关系时,就会产生算法焦虑。人脸的泛信息化带来的身份危机,以及其超个体性带来的隐匿危机是算法焦虑的体现。从建设数字社会伦理契约的角度出发,在对当前和未来人脸识别算法的部署与使用的规范性问题上,采取伦理评估并设计初步伦理建设框架,是缓释算法焦虑的重要路径。
-
-
孙国烨;
许浩;
吴丹
-
-
摘要:
[目的/意义]通过梳理2021年ASIS&T年会收录成果,分析当下图书情报与信息科学领域的研究前沿与趋势,为相关领域的学者提供参考。[研究设计/方法]通过文献综述的形式,归纳和提炼2021年ASIS&T年会收录成果中体现的学科热点与前沿。[结论/发现]2021年ASIS&T年会在信息公平、数字包容、技术伦理、数据互联、用户信息行为等多个研究领域取得了丰富的成果,反映出关注新冠疫情时期的用户信息行为变化、聚焦信息技术的伦理审视、注重学科交叉中的理论和方法创新、挖掘公共文化服务中的数据关联与价值这四方面的学科研究趋势。[创新/价值]总结了2021年ASIS&T年会的聚焦点,揭示了图书情报与信息科学领域的研究热点与趋势。
-
-
郑琳琳
-
-
摘要:
为了使高校商业伦理实践更好地与“互联网+”时代融合,需要改变高等教育界对商业伦理课程教学深度与授课范围的固有认知。结合大数据、人工智能等技术发展对市场环境提出的新商业伦理诉求,本文对商业伦理教育领域的发文量进行时间序列图分析,运用Vosviewer对该领域文献采取关键词共现分析。结果表明,商业伦理教育应抓住思政需求,紧扣新型产业伦理、新技术伦理等热点及趋势,以伦理实践为抓手,通过多产业案例教学、翻转课堂等手段实现教学融合,建立汇通中外古今的模块化案例库,从而强化适应复杂技术环境的应变能力。
-
-
周志强
-
-
摘要:
我曾经把人与技术的关系分成四个时段。技术人文:现代人文知识的确立,来自科学的最新发现;技术道说:工业革命以来,以康德哲学为代表的人文科学为技术科学“立法”;技术霸权:进入20世纪以来,出现了技术统治人文的情形;技术人化:21世纪技术的发展日益走向“人化技术”,创生新的技术伦理和技术政治。
-
-
郝喜
-
-
摘要:
“内在主义”撇弃“外在主义”将技术视为本质上去伦理性的观点,将技术看作是与人地位相平等的“道德行动者”,为技术本身的伦理考量预留空间,并在设计阶段重视伦理实践,期望将伦理考量赋予技术功能,利用技术手段解决伦理问题。“内在主义”进路的区块链伦理设计在消解隐私保护、数据权、信任等传统伦理难题的同时,也会引发出一系列新的伦理问题,如遮蔽“被遗忘权”、隐匿主体地位、导致归责性困境等。应采取辩证视角,既要利用“内在主义”进路对区块链正向伦理价值进行设计利用,又要利用“外在主义”进路对区块链技术设计本身进行伦理规约。人道原则、协商原则与透明原则构成了规制区块链技术伦理风险的伦理原则。
-
-
Xue Guibo;
薛桂波;
Yan Kunru;
闫坤如
- 《中国自然辩证法研究会2017年学术年会》
| 2017年
-
摘要:
技术伦理的政策转向意味着将伦理融入技术政策动态进程,引入利益相关者参与讨论并通过系统化制度设计和政策安排转化为具体的伦理实践,以使技术发展符合伦理价值、满足社会吁求.本世纪初在欧盟兴起并不断发展的负责任创新模式,对技术伦理的政策途径及操作模式进行了创造性尝试,为中国创新驱动发展提供了有益借鉴.在此背景下,应结合中国传统文化和社会现实,在已有探索的基础上进一步推进技术伦理的政策转向,以更好地应对新兴技术发展带来的风险与挑战.
-
-
郭力源
- 《第十次应用伦理学学术研讨会》
| 2016年
-
摘要:
回顾人类发展史,技术在促进人类文明进步的同时,也给人的发展造成了一定程度的束缚.并且,随着技术应用的深入,技术对人类的束缚体现的更为广泛和深刻,造成了一系列诸如价值理性的消退、自由公平的缺失、人的全面发展受阻等消极影响.而马克思主义技术伦理思想以消除异化为逻辑起点,以实现人与周遭环境的和谐共生为根本目标,以促进人的全面发展为价值旨归,对解决技术所引发的伦理困境具有有益的价值指导,对挖掘现代社会技术所引发的伦理问题及其成因,以及探索技术伦理问题的解决路径皆具有积极的意义.
-
-
于雪
- 《中国自然辩证法研究会2013年学术年会》
| 2013年
-
摘要:
尤纳斯的机体哲学不同于怀特海本体论意义上的机体哲学.他从机体的生物学特征出发,探究了一种目的论意义上的机体主义.他认为机体具有普遍的新陈代谢功能,体现为一种有目的的行为.不同等级的有机体依次具有运动性、能动性、知觉性、反思性等功能,而作为最高等级的有机体人类则享有自由。“形式”作为有机体的重要因素,是必要的、真实的生命特征.在生命现象中,形式生成本质,而质料成为偶然.基于对有机体特性的分析,尤纳斯将有机体与环境关系的煤介分为三个层次:植物层次、动物层次与人的层次.通过对尤纳斯机体哲学基本思想的阐释,重点分析其对技术伦理的影响.机体的“善”的本质要求具有道德意识的人类主动承担对自然的护卫作用,机体的有机价值要求对技术的使用进行合理限制,以保障未来人类和同时代自然界的正当利益.尤纳斯的“责任伦理”就是在这样的理论基础上提出的,也只有从机体哲学的视角才能充分理解其意义和价值.尤纳斯机体主义哲学思想对当前技术社会的发展具有重要启示意义,一方面,以机体哲学的视角充分考虑人—机关系,引导人—机之间的合理嵌入;另一方面,以动态发展的思路考察技术活动对社会的影响,及时避免和消除技术活动可能存在的风险和负面影响,以促进人类社会的可持续发展。
-
-
-
- 《第六届南北五校哲学博士生论坛》
| 2013年
-
摘要:
科技发展改善生活是个不争的好处和事实,但伴随而来的是发展之初未曾预期与设想到的负面效应,在1960年开始便已是为人熟知的议题—技术的矛盾性(The ambivalence of technology).因应这个问题,以及这个问题带来的对科技发展政策的挑战,科学、社会科学与哲学的讨论,开展出两个大方向:技术伦理(Ethics of Technology)和技术评估(Technology Assessment),希望能够兼顾人类需求和环境永续的要求,形成一门技术政策的指引性知识.以责任为技术伦理的最高原则,借助责任类型学,说明以责任为前提的技术伦理性能如何在实际应用中落实责任概念,而在现代技术发展日新月异,将会遇到越来越多的不可预测的风险,要采用Hans Jonas 的未来责任为原则。
-
-
LIU Hao;
刘好
- 《第十五届中国科协年会》
| 2013年
-
摘要:
20世纪80年代以来,以超声波技术为代表的产前遗传检测技术得到了迅猛的发展,然而与此同时,非医学目的的检测胎儿性别技术却导致了对足月女婴的引产及溺婴弃婴现象,造成我国0-4岁婴儿性别比例失衡,继而引发了一系列伦理难题.科学技术的发展与使用离不开伦理道德的规约,本文通过对检测胎儿性别技术的伦理道德评价,对检测技术进行全面的伦理审视.此外滥用检测技术屡禁不止的原因涉及相关技术从业人员的道德素质、孕妇及其家庭对检测技术的观念和态度及技术的运行环境等问题,本文从技术伦理的角度提出了问题的解决措施,旨在建立与科技发展相适应的伦理道德规范体系.
-
-
唐家佳
- 《江苏省第五届传媒学科研究生论坛》
| 2018年
-
摘要:
当前的社会已经进入信息革命为标志的第三次浪潮,在这次浪潮中,以深度学习为基础的人工智能技术为人类带来了众多新型的智能科技产品和技术,无人机、无人驾驶、算法推荐和人脸识别等,但与此同时也产生了不少风险和危机,其中隐私问题尤为突出.本文从20世纪的两部反乌托邦名著《1984》和《美丽新世界》关于未来社会人的生存状态的讨论中获得启发:在人工智能时代人们似乎回到了乔治·奥威尔所描述的《1948》的场景当中,隐私无时无刻不被监视,仿佛住进边沁所说"圆形监狱"的数字版.分析了在人工智能时代隐私风险的表现类型及其对个人的影响,并从韦伯和马尔库塞关于技术理性的讨论层面进行思考,在此基础上尝试给出在人工智能时代应对隐私风险的对策.
-
-
唐家佳
- 《江苏省第五届传媒学科研究生论坛》
| 2018年
-
摘要:
当前的社会已经进入信息革命为标志的第三次浪潮,在这次浪潮中,以深度学习为基础的人工智能技术为人类带来了众多新型的智能科技产品和技术,无人机、无人驾驶、算法推荐和人脸识别等,但与此同时也产生了不少风险和危机,其中隐私问题尤为突出.本文从20世纪的两部反乌托邦名著《1984》和《美丽新世界》关于未来社会人的生存状态的讨论中获得启发:在人工智能时代人们似乎回到了乔治·奥威尔所描述的《1948》的场景当中,隐私无时无刻不被监视,仿佛住进边沁所说"圆形监狱"的数字版.分析了在人工智能时代隐私风险的表现类型及其对个人的影响,并从韦伯和马尔库塞关于技术理性的讨论层面进行思考,在此基础上尝试给出在人工智能时代应对隐私风险的对策.
-
-
唐家佳
- 《江苏省第五届传媒学科研究生论坛》
| 2018年
-
摘要:
当前的社会已经进入信息革命为标志的第三次浪潮,在这次浪潮中,以深度学习为基础的人工智能技术为人类带来了众多新型的智能科技产品和技术,无人机、无人驾驶、算法推荐和人脸识别等,但与此同时也产生了不少风险和危机,其中隐私问题尤为突出.本文从20世纪的两部反乌托邦名著《1984》和《美丽新世界》关于未来社会人的生存状态的讨论中获得启发:在人工智能时代人们似乎回到了乔治·奥威尔所描述的《1948》的场景当中,隐私无时无刻不被监视,仿佛住进边沁所说"圆形监狱"的数字版.分析了在人工智能时代隐私风险的表现类型及其对个人的影响,并从韦伯和马尔库塞关于技术理性的讨论层面进行思考,在此基础上尝试给出在人工智能时代应对隐私风险的对策.
-
-
唐家佳
- 《江苏省第五届传媒学科研究生论坛》
| 2018年
-
摘要:
当前的社会已经进入信息革命为标志的第三次浪潮,在这次浪潮中,以深度学习为基础的人工智能技术为人类带来了众多新型的智能科技产品和技术,无人机、无人驾驶、算法推荐和人脸识别等,但与此同时也产生了不少风险和危机,其中隐私问题尤为突出.本文从20世纪的两部反乌托邦名著《1984》和《美丽新世界》关于未来社会人的生存状态的讨论中获得启发:在人工智能时代人们似乎回到了乔治·奥威尔所描述的《1948》的场景当中,隐私无时无刻不被监视,仿佛住进边沁所说"圆形监狱"的数字版.分析了在人工智能时代隐私风险的表现类型及其对个人的影响,并从韦伯和马尔库塞关于技术理性的讨论层面进行思考,在此基础上尝试给出在人工智能时代应对隐私风险的对策.
-
-
-
-
-
-
- 华南师范大学
- 公开公告日期:2020-12-15
-
摘要:
基于人工智能伦理备选规则的人工智能伦理风险防范方法,包括:多规则获取步骤;风险类型获取步骤;事件场景获取步骤;合规场景步骤;风险计算步骤;规则选择步骤;行为步骤;检测步骤。上述方法、系统和机器人,采用多个备选人工智能伦理规则,从而可以根据事件场景选择能使得事件场景产生人工智能伦理风险最小的人工智能伦理规则,因为有多个备选的人工智能伦理规则,所以产生的人工智能伦理风险必然小于单一人工智能伦理规则情况下事件场景会产生的人工智能伦理风险,能够极大地提高人工智能伦理风险的辨识和防范能力,同时,当人类或人工智能体执行行为失败时,又可以重新选择人工智能伦理风险小的其他人工智能伦理规则,从而提高了人工智能伦理风险的辨识和防范的灵活性。
-
-
-
-
-