快速发展的技术缺乏指导方针、规则或法律
成绩单
主持人安珀·史密斯: 锡拉丘兹上州医科大学, 纽约, 邀请您成为“知情患者”, 我们的播客邀请了来自纽约中部唯一的学术医疗中心的专家. 我是主持人,安柏·史密斯.
如今,计算机和机器执行越来越多的认知功能,而这些功能与人类的思维有关. 这种快速发展的技术被称为人工智能(AI).
为了帮助理解与人工智能相关的伦理问题,我正在与Dr. Serife Tekin. 她是北州大学生物伦理学和人文学科的助理教授.
欢迎来到“见多识广的病人”节目. Tekin.
Serife Tekin博士: Amber,谢谢你邀请我.
主持人安珀·史密斯: 无论是用于医学还是其他领域, 人工智能依赖于具有复杂编程和数学算法的大量数据和软件.
这些算法是否应该遵循医生入行时的“不伤害”誓言?
Serife Tekin博士: 这个问题问得好,安布尔. 就"不伤害"的誓言或指导医疗实践的主要道德原则而言, 很难说人工智能是否会紧随其后,因为人工智能背后没有一个集中的系统. 所以当我们谈到“不伤害”原则时, 我们假设有一个代理人, 有一个人, 有一些理性的人在思考他们将要做什么,评估其后果,然后做出相应的决定.
而人工智能工具为我们提供了很多分析数据的工具, 也许可以计算出这些数据的潜在后果或结果, 它不是以一种集中的方式进行成本效益分析来预测和防止这种情况. 这就是我们人类的智慧, 我想, 当代研究和人工智能正试图让人工智能做出这些自治的决定, 但我们还没有走到那一步.
主持人安珀·史密斯: 这是一个很好的观点, 有很多人正在进入人工智能领域,或者已经在以某种方式使用它, 但没有中央权威告诉他们游戏规则, 真的.
Serife Tekin博士: 绝对. 绝对.
主持人安珀·史密斯: 好吧,让我们来谈谈人工智能如何改善对病人的护理的一些例子.
Serife Tekin博士: 这太棒了. 让我们从积极的方面开始. So, 当代的医疗保健非常复杂, 尤其是在美国的背景下, 正确的?
以一个普通病人为例,他们想看牙医. 所以他们需要找一个牙医,可能会为他们的保险,可能能够解决他们的特殊问题. 所以如果你只是需要清洁,那就是另一回事了. 但如果你需要更复杂的程序, 你需要确保牙医能够为你提供你所需要的服务.
所以我认为人工智能技术在这里有很大的用处,它可能会将患者的需求与可用的提供者相匹配, 根据他们的特殊保险. 帮我们找个牙医, 谁是可用的, 谁在接收能满足我们需求的病人. 所以我认为这可能是一个很好的用途. 我知道有一些技术可以在心理健康方面做到这一点,将患者与可能满足他们需求的提供者匹配起来. 所以我认为这些, 我称之为, 就像, 促进者角色, 人工智能技术的好地方是哪里.
主持人安珀·史密斯: 因此,这可以取代以前一个人必须打几十个电话, 打电话给他们在黄页上能找到的每一个牙医,看看他们是否有保险,是否能帮助他们. 这听起来会节省很多时间.
Serife Tekin博士: 没错,正是. 我喜欢以这种方式使用技术.
主持人安珀·史密斯: 你有没有研究过对医疗服务提供者有帮助的方法?
Serife Tekin博士: 是的, 我认为我们可以首先大致谈谈人工智能帮助病人追踪他们经历的能力, 他们的症状, 无论是心理上的还是生理上的. 所以像糖尿病这样的疾病可能需要病人监督他们的血糖水平以及胰岛素是如何工作的等等.
我认为, 到目前为止,医学越来越多地试图以病人为中心, 这类数据对临床医生来说非常重要, 对于提供者, 只是想看看病人在没有见到他们的几个月里都做了些什么. 如你所知, 我们在医疗方面有一个非常严重的短缺问题,因为我们根本没有足够的提供者来满足病人的需求.
如果可以的话, 再一次。, 使用人工智能技术来跟踪病人的行为或病人在门诊外的经历, 这可能会以一种我称之为“三角测量”的方式在临床环境中提供帮助——所以人工智能, 病人和提供者. 他们可以对病人的病情进行诊断,然后决定在下一阶段的治疗中他们还能做些什么.
所以我认为这对临床医生很有帮助.
主持人安珀·史密斯: 所以它不会取代医生,但它会增强或帮助他们. 它将成为医生跟踪病人的工具.
Serife Tekin博士: 精确的, 尤其是在人工智能在医学上的应用阶段, 那里的未知数和不确定性肯定要高得多, 更多, 比已知的还要多.
目前, 我认为使用人工智能作为提供者的补充而不是替代品也是一种道德义务.
主持人安珀·史密斯: 这里是纽约州推荐最近最火的赌博软件的“知情患者”播客. 我是主持人,安柏·史密斯.
我在和医生说话. Serife Tekin. 她是北州大学生物伦理学和人文学科的助理教授, 我们说的是人工智能, 或人工智能.
让我们来看看其中的一些伦理问题. 人工智能可靠吗??
Serife Tekin博士: 可靠性问题非常重要, 我们可以从两方面考虑科学的可靠性. 一个是我们的治疗方法在大量人群中的可靠性? 医学上的许多进步并不是因为他们成功地治疗了一个病人, 但结果在一组患者中是可复制的.
然后我们决定, 说, 使用大量人群可以获得的疫苗或药物, 一大群人. 人工智能是否具有这种可靠性目前还不得而知, 很简单,因为医学应用还没有被复制来帮助我们得出一个概括,即它们是否能帮助一大群病人, 正确的?
这就带来了很多道德问题. 如果人工智能的医疗应用还没有证明其科学可靠性, 那么仅仅因为我们没有足够的研究就开始使用它们来治疗病人是否合乎道德?
这就把我带到了另一个重要的道德层面. 我们在医学上谈论意想不到的后果或前所未有的风险. 所以在某些没有解决办法的医疗条件下, 对于临床医生来说,求助于人工智能并尝试一种实验性的干预方法可能是有意义的.
我们在癌症治疗中经常这样做. 我们有很多实验性的干预措施,但我们还不知道后果, 但是病人已经到了晚期, 事情对他们来说并不乐观, 所以我们尝试使用这种实验方法. 从这个意义上说,风险并没有那么高,因为患者已经处于脆弱的境地.
但是有了人工智能, 有许多治疗方法尚未证明其有效性, 然而,它们被认为是下一个突破性的干预措施. 我担心,如果这些治疗方法被其他现有的或许更有效的治疗方法所取代, 我们可能对病人弊大于利.
So, 我认为, 从这个意义上说, 伦理学家和科学家必须相互交流,携手合作,以预见这些技术的意想不到的后果、意想不到的影响和危害.
主持人安珀·史密斯: 当人工智能出错时,谁来负责?
Serife Tekin博士: 目前,没有人. 事实上,在我的研究领域,在心理健康伦理方面,有一些. 我一直在寻找一些提供, 用引号括起来, "心理治疗"给那些没有药物的病人. 同样,这只是一个复杂的算法,一个人工智能,驱动着这种应用程序. 其中一些应用程序给病人的建议实际上是非常危险和有害的, 没有人可以崇拜.
尤其是当我们想到青少年的时候, 例如, 使用这类应用程序, 没有成年人参与的地方, 没有心理医生介入, 当事情出错时, 通常是公司, 这通常是一家私人公司, 盈利的公司, 谁在开发这些应用, 他们把产品撤出市场, 但伤害已经造成了. 目前还不清楚患者或受到负面影响的人如何对这些人采取行动, 尤其是当你的健康状况每况愈下的时候. 你会得到任何形式的赔偿或诉讼, 我的意思是, 这不会给你带来任何具体的健康结果.
这是个大问题.
主持人安珀·史密斯: 我认为从理论上讲,人工智能会随着时间的推移变得越来越好. 它会自学,或者随着时间的推移,它会学到更多. 但你担心它会继续下去吗, 我不知道, 我们的坏习惯, 学会区别对待或发展固有的偏见?
Serife Tekin博士: 人工智能不是奇迹,对吧? 所以它关注的是人类的思维方式, 人类创造知识的方式, 我们创造的现有知识, 正确的? 所以这都是关于我们的实践. 这是人工智能的原始数据. 所以我们作为人类可能遇到的任何失败都将转化为人工智能.
我总是给我的学生举招聘实践的例子? 人工智能通过观察我们过去的招聘实践,学会根据现有的简历(简历)来决定雇佣公司的下一任CEO. 所以让我们假设一些随机因素,比如戴眼镜的人(笑), 随着时间的推移, 被选为ceo. 这并不一定是我们要考虑的CEO资格的一部分, 但人工智能在处理数据方面很聪明,它可能会挑选出这些信息,并可能根据他们是否戴眼镜来选择我们的下一任首席执行官, 这是不可信的.
所以从这个意义上说,我认为人工智能不会改变或纠正我们的坏习惯. 事实上, 它可能会使一些坏习惯永久化,因为它最终会反馈到系统中. 所以我们要小心.
主持人安珀·史密斯: 我们能教人工智能区分好坏信息吗?
Serife Tekin博士: 我愿意相信这一点, 除了作为人类,我们对什么是好信息,什么是坏信息并没有一致的看法. 这就是为什么我认为我们无法逃避人工智能, 我们应该拥抱它, 但是我们真的需要和计算机科学家一起工作, 人文学者, 伦理学家, 手拉手, 因为很多设计这些应用程序的工程师并不一定了解我们如何区分好的科学, 好的科学研究或者从坏的信息中得到好的信息. 也许社会科学家或人文学者可能在这方面受过更多的训练. 所以我认为,如果我们在不同的利益相关者之间进行对话和合作, 不同类型的专家, 因为我们正在从事人工智能研究, 我们也许能够控制这项技术可能产生的一些潜在危害.
主持人安珀·史密斯: 这似乎是一个非常可怕的时刻,就像机器即将接管世界一样. 你这么看吗?
Serife Tekin博士: 我可不那么悲观. 在科学技术史和医学史上, 实际上, 你可以看到这些拐点, 有什么伟大的发明或伟大的东西, 每个人都对它充满热情. 我们不再谈论其他任何事情. 当人们有点失望时,热情就会消退,对吧?
所以我认为现在我们处于繁荣时期, 爆炸, 期, 很多人都在关注它并参与其中, 看起来他们可能会抢走我们的工作等等, 等等.
但我认为它会稳定下来, 我们可能会学会理解,在不同的环境下,人工智能可以帮助我们,也许会取代我们的一些工作. 但这需要高水平的人参与和人的成分. 所以我想我还没那么担心.
主持人安珀·史密斯: 只是因为我们可以训练机器像人类一样思考, 这一定意味着我们应该这么做吗, 在此之前,我们需要考虑些什么?
Serife Tekin博士: 我认为重新思考作为人类的意义是非常重要的. So, 是的, 我们大多都是理性的, 响应, 理性的人, 和计算, 语言, 思考是我们重要的能力, 这似乎就是我们试图让人工智能变成的样子, 正确的? 像我们一样,像我们一样聪明. 但另一方面,我们本质上是具身的社会性生物? 我们有肉体,肉体.
我们没有自动汽车零件,对吧? 我们生活在社区中, 我们彼此触摸, 我们互相交谈, 我们彼此接触, 我认为我们的很多智慧都来自于人类的这种具体化和社会性, 目前尚不清楚这是否可以在人工智能的背景下复制. 他们不像我们是有血有肉的.
主持人安珀·史密斯: 很有趣. 我很感谢你抽出时间来接受采访. Tekin.
Serife Tekin博士: 非常感谢你们邀请我.
主持人安珀·史密斯: 我的客人是博士. 谢里夫Tekin. 她是北州大学生物伦理学和人文学科的助理教授.
“知情的病人”是一个关于健康的播客, 科学与医学, 由锡拉丘兹上州医科大学为您带来, 纽约, 由吉姆·豪制作.
在upstate找到我们之前的剧集.edu/informed.
如果你喜欢本期节目, 请告诉一个朋友听, 太, 你可以在Spotify上对“知情患者”播客进行评分和评论, 苹果, YouTube或任何你收看的地方.
我是主持人安珀·史密斯,感谢大家的收听.