最近看了一本新书《超越想象的GPT医疗》,中文版出版日期是2023年5月英文名是 <The AI Revolution in Medicine: GPT-4 and Beyond>,而英文版出版日期是2023年6月。。。就是说中文版早于英文出版?
或者猜测他们是同步出版,中国这里的供应链,制造业效率更高?
对我震撼最大的一点是,什么是理解understand,什么是掌握master?想象一下我们学习物理、化学、英语、数学的过程,一个学期学习了很多概念,定理,公式,那么你怎么知道你掌握了这些知识?
老师的不二法宝,考试呗!
如果你考了60分,算是及格;
考了80分,良好;
考了90,99,100算是优秀吧。那么作为人类的我们,真的算是懂了吗?掌握了吗?
我思考这个问题是因为,把这些考试题目交给GPT-4解答, 它的分数可能在90+,那么你认为它懂了吗?掌握了吗?
还是它搜索出了答案?如果是说是它搜索出了答案,那么人类是不是也从自己的记忆深处搜索答案?
这些知识给了人类,除了记住了、理解了,人类相比机器,真的还产生了什么其他“高级反应”?还是说因为评判的标准是人类定义的,人更相信人,而不是其他“物种”------暂且把AI机器当作新物种吧。
书中提到了 “我们可以用美国执业医师资格考试(USMLE)的问题来测试GPT-4。美国执业医师资格考试是一个分阶段的考试,任何想在美国获得执业医师资格的人都需要通过这个考试。”
“在我们的测试中,当使用一整套美国执业医师资格考试问题对GPT-4进行测试时,它的答案正确率超过90%。”
如果人类的考试分数是90,是相当优秀的结果了,而现在机器达到了这个分数,我们认为在这个层面,人类和机器到底有什么不同呢?GPT 可以作为你的医生吗?或者辅助医生吗?
作者提出的这个标题,值得深思《一个真正的大问题:这真的重要吗?》
《超越想象的GPT医疗》首先介绍了GPT-4的特点和优势,包括其处理大量文本和代码数据、生成逼真内容、理解并回答复杂问题的强大学习能力。然后,书中详细介绍了GPT-4在医疗领域的具体应用,涵盖了辅助诊断、个性化治疗和药物研发等方面。
潜在应用:
在辅助诊断方面,GPT-4被认为能够通过分析患者的病史、症状和检查结果,为医生提供更准确的诊断支持。
个性化治疗方面,GPT-4可根据患者的个人情况生成个性化的治疗方案,提高治疗效果。
在药物研发方面,GPT-4有望协助药物研发人员筛选潜在的药物靶点和设计新的药物分子。
在医疗资源不足的偏远地区,是否可以使用一些GPT-4等AI来协助。因为医疗资源不足,会导致很多病人看不起、等不起而去世了。
挑战与问题:
然而,书中也提到了GPT-4在医疗领域应用可能面临的一些挑战。其中包括GPT-4的准确性和可靠性尚未充分验证,可能被用于生成虚假信息或误导性的医疗建议,以及其应用可能导致医疗资源的浪费。
因此,作者多次提到了这个次”信任,但要核实“,其实就是不能全信。
个人看法:
GPT-4在医疗领域的应用具有巨大的潜力,尤其在辅助诊断、个性化治疗和药物研发方面。这将可能改变医疗行业的工作方式,提高医疗服务的效率和质量。然而,这也伴随着一些潜在问题,如准确性验证、信息误导和资源合理利用等。
在未来,GPT-4的成功应用需要深入地研究和开发,以确保其安全性和有效性。技术的引入将带来医疗领域的深刻变革,因此需要平衡科技进步和医学伦理的考量。
GPT-4在文本处理方面,可以节省医生20%以上的时间,从而让医生更关心患者,而不是疾病本身。
GPT-4有强大的编程能力,对于没有写代码能力和功底的人,它也可以迅速地按照你的描述生成一个简单的计算器,书中的例子是,生成了一个计算打点滴的速度的程序,把代码复制出来,另存为html即可运行。
GPT的同理心,是否挺吓人?
有时GPT-4 还会表现出对我们的关心与担忧。尽管它并非人类,但我想说,它似乎具有同理心。
每当它展现出这样的品质时,我的世界观、我们与机器的关系,以及人类与社会所受的广泛影响都会发生深刻改变,一次又一次。
GPT到底是什么?作者说,到目前为止2023年5月,他们尚未完全理解GPT-4的能力源于何处!
我问了google最新的AI,gemini,其实它的名字叫Bard,
https://bard.google.com/chat
问题是: Bard与GPT4有什么区别?
答案:GPT-4 和我都是大型语言模型,但我们在一些关键领域存在差异。
GPT-4 是 OpenAI 开发的生成预训练转换器,而我是由 Google AI 开发的事实语言模型。这意味着 GPT-4 擅长生成文本、翻译语言和编写不同类型的创意内容,而我擅长提供信息和全面的回答,即使它们是开放的、具有挑战性的或奇怪的。
此外,GPT-4 是在 1.56T 个参数的大型数据集上训练的,而我是在 1.56T 个参数的数据集上训练的。这意味着 GPT-4 可以处理比我更多的信息,但这也意味着它可能更容易受到偏见的影响。
问:GPT,你是怎么工作的?
这个是它说的:
GPT( Generative Pre-trained Transformer)是一种基于Transformer架构的预训练语言模型,由OpenAI开发。以下是GPT的基本工作原理:
架构: GPT使用Transformer架构,这是一种深度学习模型架构,专门用于处理序列数据。Transformer包括多个注意力机制,这有助于模型理解输入序列中的全局依赖关系。
预训练: GPT通过在大规模文本数据上进行预训练来学习语言的统计结构和语义关系。在预训练阶段,模型被要求预测给定上下文中的下一个单词。通过这个任务,模型学到了丰富的语言表示。
无监督学习: GPT是一个无监督学习模型,这意味着它可以在没有特定任务标签的情况下进行训练。预训练模型的目标是学习通用的语言表示,而不是解决特定的任务。
上下文理解: GPT能够理解上下文中的语义关系,并且在生成文本时考虑到先前的输入。这使得它在自然语言处理任务中表现出色,如文本生成、问答系统等。
微调: 预训练完成后,可以通过在特定任务上进行微调来适应具体的应用领域。微调的任务可以是分类、生成或其他自然语言处理任务。
生成文本: 在部署阶段,GPT可以生成与输入上下文相关的文本。这使得它在对话系统、内容生成等应用中具有很高的灵活性。
总体而言,GPT是通过学习大量文本数据的统计模式和语言结构,然后在特定任务上进行微调,以适应不同应用场景的。这种模型的成功在于其能够捕捉语言中的复杂关系和上下文依赖性。
接着,我问他,你有多少神经网络节点数?
它说:GPT-3有1750亿,估计GPT4更多。
而人类有多少神经元呢?GPT说,人类大脑的神经元数量估计在 860 亿至 8600 亿之间。
那么在数量上看,GPT的神经网络节点数 已经接近人类数量的神经元(虽然二者不完全一样),下一步发生什么,我不知道,但值得期待。
书的最后扉页部分,写着
未来,属于终身学习者
经历过2000年网络泡沫,网络成就了后来的互联网,移动互联网,现在感觉AI,GPT,Gemini是下一个革命性的(Game-changing)技术,那就让我们持续关注,拭目以待!