文章目录
AI 与 个人计算
将 AI 与个人计算结合 – 小蘑菇
在个人计算环境中嵌入 AI , 成为导师和助手 如何让 AI 理解正在发生的事情, 诸如视觉的舞台区,人机协作,而不是自动编程(不然用文本就行)
让 ChatGPT 使用个人计算工具 Snap
- AI 和 个人计算
- ChatGPT 导师(Jackson, 使用场景)
- 理解 ChatGPT API
- 语音合成?
- 语音识别?
- Snap! 语义序列化
- 你能够修改上边的代码,让它只打印偶数吗
- 教它if
- Debug
- 你能够修改上边的代码,让它只打印偶数吗
- AI 操控工具(AI 使用计算器)
Snap! 语义序列化
- XML - vscode red hat 的 XML 插件
- 理解序列化的脚本,只处理简短脚本,反向加载
|
|
导出脚本
export scripts
使用 vscode red hat 的 XML 插件 format
|
|
导入脚本
理解序列化的脚本,只处理简短脚本,反向加载
getSpriteScriptsXML loadSpriteScriptsXML bug name syn_scripts 有用
AI Assistantc
研究环境
在 Snap! 中探索使用 ChatGPT API
注意事项
Adapter 需要在命令行里启动
ideas
- bootstraping
- 先有一个通用对话框
- init 告诉它一些规则
- 来回调试
- curl to request ()
- micro AI world
- ChatGPT library
- 使用list通话记录
- init 训练,让它输出 xml
- 保留前后的积木?不同角色?
- UI 交互界面,对话
- 接管外部物理世界,通过操控
- 如果我告诉你,我两个小时后给我开门,两个小时内如果有人来,报警,你会怎么写代码?
- 如何让积木自动运行(人类点击)
- 周末分享: 图形化编程环境里的 AI 导师
- 常见 Scratch 错误,或者Python错误,让chatgpu调整,写算法
- 要教人们这三个积木,你会设计怎样的入门课程
- 正在思考…
- 生成ring程序
- 让AI作用于它自己,请求之后执行,broadcast
- 让 AI 与自己对话
- 需要一个通用的对话窗口
- 试试 https://github.com/acheong08/ChatGPT/blob/main/src/revChatGPT/V3.py
规划一场party 接管物理世界 AI接管舞台灯 个人计算提供游乐场
让困难的事情变得可能 AI 可以搜索任何可能性
个人计算与AI的结合 让简单的事情保持简单,让困难的事情变得可能 前半句话 Apple. Gui做得很好 个人计算,个人AI,AI助手处理后半句话,从个人计算提供的无限自由度里,找到用户需要的东西 授权
在VR中以形象出现
Snap做原型
数字孪生 恶作剧 元宇宙里做实现
todo
- chatgpt 受限菜单
- 解释程序
- 编写程序
- 帮我 Debug
- 编写并解释算法
- 取消
- 教 AI 使用 turtle ,因为有充分的案例
- 文档里对话风格
- morph 面板 or 舞台?
- 中英文
- 弄懂 API
- 是否有多段对话,服务每个客户
- 记录技巧
- 使用broadcast
- 学习 AI 与外部 API 交互的论文
-
使用 code 模型补全代码
-
syn_scripts get 有问题,没有提交自定义的积木,但提交了注释 export script this.topBlock() top.exportScript()
scriptsOnlyXML
-
模型使用,使用
- https://platform.openai.com/docs/models/gpt-3-5
- 我们最强大且最具成本效益的模型是gpt-3.5-turbo
- Turbo 与支持 ChatGPT 的模型系列相同
- 在 ChatGPT 中可以很好地完成的任何用例都应该在 API 中与 Turbo 模型系列一起很好地执行。
- OpenAI 模型是不确定的,这意味着相同的输入可以产生不同的输出。将温度设置为 0 将使输出大部分具有确定性,但可能会保留少量可变性。
-
- 您拥有的训练示例越多越好。我们建议至少有几百个示例。一般来说,我们发现数据集大小每增加一倍都会导致模型质量线性增加。
-
它的成功通常取决于任务的复杂性和提示的质量。一个好的经验法则是考虑如何为中学生写一个应用题来解决。一个写得很好的提示提供了足够的信息让模型知道你想要什么以及它应该如何响应。
-
prompt-design
- 展示,而不仅仅是讲述,通常是获得良好提示的秘诀。
-
- Convert this from Python to R
-
gpt-3.5-turbo Chat completions
- 起草电子邮件或其他书面文件
- 编写 Python 代码
- 创建会话代理
- 一系列科目的导师
- 助手消息帮助存储先前的响应。它们也可以由开发人员编写,以帮助提供所需行为的示例。
- 当用户指令引用先前的消息时,包括对话历史记录会有所帮助。在上面的示例中,用户的最后一个问题是“它在哪里播放?” 仅在有关 2020 年世界大赛的先前消息的上下文中才有意义。由于模型对过去的请求没有记忆,因此必须通过对话提供所有相关信息。如果对话不适合模型的令牌限制,则需要以某种方式缩短它。
- 在 Python 中,可以使用 提取助手的回复
response['choices'][0]['message']['content']
。 - 因为令牌总数必须是低于模型的最大限制(4096 个令牌gpt-3.5-turbo-0301)
- 如果您的 API 调用在消息输入中使用了 10 个令牌,而您在消息输出中收到了 20 个令牌,则您需要支付 30 个令牌的费用
- 要查看 API 调用使用了多少令牌,请检查usageAPI 响应中的字段(例如,response[‘usage’][’total_tokens’])
- 要在不进行 API 调用的情况下查看文本字符串中有多少标记,请使用 OpenAI 的tiktoken Python 库
- 如果对话中的标记过多而无法适应模型的最大限制(例如,超过 4096 个标记gpt-3.5-turbo),您将不得不截断、省略或以其他方式缩小文本,直到它适合为止。请注意,如果从消息输入中删除一条消息,模型将失去所有关于它的知识。
- 另请注意,很长的对话更有可能收到不完整的回复。例如,一段gpt-3.5-turbo长度为 4090 个令牌的对话将在仅 6 个令牌后被截断。
- 自 2023 年 3 月 1 日起,我们会将您的 API 数据保留 30 天,但不再使用您通过 API 发送的数据来改进我们的模型。在我们的数据使用政策中了解更多信息。
-
- 使用response_format参数,每个图像都可以作为 URL 或 Base64 数据返回。URL 将在一小时后过期。
- 最大令牌数默认为生成的答案允许的最大标记数。默认情况下,模型可以返回的标记数为(4096 - 提示标记)。
- 一个组织上传的所有文件的大小最大可达 1 GB。
两者相似性
One important prompt design requirement is that all API names must be descriptive of the overall function behavior. Clear names are essential to allow the LLM to reason over functional connections between APIs and produce the desired outcome for the problem. –《ChatGPT for robotics》
个人计算,objc 太长,关注可理解性
AI 关注人类关注肚的东西,语义,可理解性
不关注优化问题,关心描述问题
让简单事情变得简单 困难时期变的可能
Depending on the context, we recommend explaining the function of APIs and if needed, breaking them down into sub-components with clear inputs and outputs, similar to code documentation.
展示Smalltalk中的示例和解释
基于示例的编程,kasla 的搜索函数工具
让孩子对计算机进行编程
参考
- ChatGPT for Robotics: Design Principles and Model Abilities
- Cozmo
- Python turtle
文章作者 种瓜
上次更新 0001-01-01