文章主题:Bard, 大型语言模型, 可信度, 人工智能

666AI工具大全,助力做AI时代先行者!

原标题:Bard产品经理质疑大型语言模型的可信度

【ITBEAR科技资讯】10月12日独家报道,近日,谷歌与Discord联手邀请了对自家AI聊天机器人Bard极度热爱的用户,共同创建了一个专属聊天室,旨在探讨Bard的实用性与潜在应用。在此次聊天活动中,Bard的产品经理、设计师和工程师们深度剖析了AI的效用及广泛应用领域,然而与此同时,也对Bard提出了某些质疑的声音。

在最近的一次Bard社区Discord用户的交流中,他们分享了7月至10月期间在聊天室内的深度讨论。Bard的高级产品经理Dominik Rabiej在讨论过程中明确表示,他对由大型语言模型生成的回答持保留态度,并强烈建议用户仅在创意和头脑风暴等特定领域使用Bard。此外,Rabiej还提出将Bard运用于编程领域也是一个很好的选择,因为在编写代码的过程中,人们需要不断地对其有效性进行验证。

1701366999153.jpg

Rabiej进一步突显了Bard新增的“仔细检查回复”按钮的关键性。此功能的橙色标注旨在指出可能存在错误的内容,借此再次强调Bard并未真正理解所获取的文本,它仅仅是依据用户的指导来生成相应的回应。我们必须牢记,Bard与其他大型模型一样,它的功能并非在于寻找信息或进行概括,而是在于生成文本。

在七月份的一次对话中,该产品的经理明确表示,只有在用户能够自行验证的情况下,才可以完全信赖大型语言模型的输出结果。他强调道:“我们非常期望Bard能够满足您的期待,然而它目前还未达到这个标准。”

Warkentin,一位出色的产品经理,在讨论中反复强调了人性化改进的必要性,他坚信,只有实现这一目标,Bard才能真正成为适合广大用户的产品。他表示:“如果不能实现这一点,用户将无法准确评估产品的功能,这无疑是一个巨大的失误。”他还强调,“我们的目标是面向大众的市场,而非仅限于小众市场!”

在今年7月份,谷歌在推广其Bard AI工具的过程中,增加了一项名为“对话链接分享”的新功能。借助这项功能,用户可以将与Bard的互动过程转换成网页链接,进而方便地向他人分享,同时也可以继续与Bard展开对话。然而,一名分析顾问Gagan Ghotra在实际操作中发现了一个令人担忧的问题,即谷歌错误地将部分用户分享的链接整合到了搜索结果之中,从而有可能引发敏感信息的泄露问题。

Gagan Ghotra提醒用户,在与Bard对话时不要分享任何“私密内容”,以免相关信息外泄。

来源:http://www.itbear.com.cn/html/2023-10/474651.html返回搜狐,查看更多

责任编辑:

Bard, 大型语言模型, 可信度, 人工智能

aigc666aigc999_0.jpg

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply

Your email address will not be published. Required fields are marked *