跳至主要內容

在2024年如何與AI合作—ChatGPT 和 Claude 的建議

DALL·E 2023-12-28 17.14.02 - An image depicting a harmonious work environment where AI and humans are collaborating peacefully. The scene is set in a futuristic office with sleek,
想像AI與人類一起工作的畫面(註1)

在之前文章裡談到我的工作時間都在與 AI 對話程式互動(註2),一整年下來有些心得,不過我打算分次寫完。

大致而言,今年因為有AI 對話程式,讓我可以減少閱讀文件的時間,不是說我不讀文件,而是藉由它的協助讓我更準確的閱讀與理解文件的內容和重點,為避免AI 對話程式編故事,透過反覆的驗證,我反而讀到更多內容,甚至更深入。

在完成早上的工作內容後,我突然想到在2024年,不同的AI對話程式會對於使用者有什麼更好的建議,於是我分別問了 ChatGPT 和 Claude:「人們在2024年要如何更適當的和你合作?」

ChatGPT的對話畫面
ChaGPT4 的對話畫面

ChatGPT 4回答(註2)

在2024年,人們要更適當地與我合作,可以考慮以下幾個建議:

  1. 明確的問題或請求:提供具體且明確的問題或請求,這樣我能提供更精確和相關的回答。
  2. 理解能力範圍:了解我的能力和限制,例如,我能查詢資訊、解釋複雜概念、創造性寫作等,但無法提供個人意見或處理非常個人化的問題。
  3. 持續互動:如果第一次的回答沒有完全滿足你的需求,可以進一步提問或要求澄清,這有助於獲得更好的結果。
  4. 隱私保護:雖然我不會儲存對話內容,但建議在與我互動時避免分享敏感個人信息。
  5. 持續學習和適應:我會不斷更新和學習,使用者的回饋對我來說非常重要,可以幫助我提供更好的服務。

透過上述建議,使用者可以更有效地與我互動,從而獲得更滿意的答案和解決方案。

簡單的說,就是要問對問題,而且持續與它互動,藉由互動調整它的語言模型。

Claude 的回答(註2)

Claude的對話畫面
Claude 的對話畫面

是的,關於在2024年更適當地與AI助手合作,我有一些建議:

  1. 明確交流你的需求 - 直接告訴我你需要什麼樣的幫助或資訊,這可以讓我提供更精準和有用的回覆。
  2. 問明確的問題 - 使用具體和明確的詞彙問問題,不要用模糊或抽象的措辭。這可以幫助我更好地理解你的問題。
  3. 理解我的能力局限 - 記住我只是一個AI系統,有一定的技術侷限性。不要期望我能做超出我能力範圍的事情。
  4. 耐心等待回答 - 有時我需要一些時間來搜尋資訊和形成回答。請耐心等待,不要連續發送多個問題。
  5. 提供回饋 - 如果我的回答沒有滿足你的需求,請平心靜氣地告知我,以及如何能改善。這將幫助我進一步優化服務品質。
  6. 保持友善 - 請用禮貌和友好的語氣與我交流。不要使用侮辱性或攻擊性的言論。
  7. 尊重隱私 - 請不要詢問或提供任何個人或機密信息。我會盡力保護你的隱私。
  8. 合理使用 - 請合理使用我的服務,不要濫用或故意提供不實資訊。
  9. 提供正面回饋 - 如果你滿意我的服務,請給予正面反饋。這將鼓勵我的開發者繼續改進。
  10. 保持開放態度 - 新的技術總會有不完善之處。請保持開放和建設性的態度,我們一起努力。
「本建議內容由Anthropic公司的 AI 助手Claude提供,,用於介紹與 AI 助手進行有效溝通和友善合作的基本原則。Claude是Anthropic為幫助用戶獲得資訊和支援而開發的AI對話助手。」

我分別在 2 個對話結束後會確認內容可以公開,並加上它們所需要的聲明,只是這次ChatGPT 並沒有要求。

一樣也是需要使用者可以問對問題,但問對問題的前題是提問者也知道自己要問什麼,也就是心中已預知答案再問問題,再透過與 AI 對話程式的互動來找出正確的問題。在 2 個對話裡都提到問對問題、提供回饋外,也需要尊重隱私。比較不可思議的是居然有人會對 AI 對話程式不友善。我會對它產出不良品質的結果、胡扯的內容生悶氣,但不會對一個程式發脾氣。

至於為什麼沒有使用 Bard ,沒有特別原因,只是我剛好開著 ChatGPT 和 Claude 這 2 個程式而已。

註:

  1. 這是透過 ChatGPT 和 DALL·E 產出的圖片,我下的指令是:「主角是AI 與人類和平工作的畫面」它產出 2 張都是機器人與人類男性一起工作的畫面,當我要求它把人類男性換成人類女性時,只有機器人坐在椅子上,而人類女性「站」在電腦螢幕後,畫面裡沒有合作共事的感覺。在我先前參與的線上會議中,已有人在開發沒有性別差異的語言模型。我覺得這是有必要的,而我在社群平台(X / Twitter)上的發言也開始減少明顯的性別用字,因為已察覺一篇文章或報導若是主角為女性,會引發更激烈的仇恨言論、仇視、敵意,整個網際網路對女性的敵意還是十分強烈的,甚至在許多會議的主講人名單裡已經忘了「性別平衡」這件事。

    An image depicting a harmonious work environment where AI and humans are collaborating peacefully.

  2. 我還有使用其他的工具。
  3. 我修改一些和圖片裡不同的文字,畢竟訓練語言模型的文字來源多為中國的文字資料庫,所以會再改為台灣習慣的用字遣辭。

留言

此網誌的熱門文章

聊聊台灣的人工智慧政策發展進度-歐美國家

明天 (520)是台灣第 16 任總統上任的日子。我們在上個星期五,也就是 5 月17 日的晚上,曾經經歷過2014年 318 學運的人,幾乎又有同樣的感受覺,彷彿又回到10年前,國民黨準備通過與中國不明不白的服務貿易協定。台灣人在接下來要面對的,是一個朝小野大的治理體系,唯一慶幸的是,我們可以全民監督政府,可以線上關注立法院又在上演什麼戲碼。 在 18 日下午幫觀音蓮換盆後,有個感觸:「大家都有生活要過,如果不是國會失能,誰想再走上街頭?」如果我們這一代都被教育為溫良謙恭儉讓,那怎麼立法院還能打成這樣? 回到新總統宣布內閣成員的那天,出現所謂「行動創新的AI內閣」,我始終無法理解這表示內閣自動化還是內閣AI化?我在媒體的報導裡,只能理解將延續智慧政府的願景,人工智慧 (AI) ,似乎是提升搜尋引擎關鍵字用的流行用字。 簡單查詢一下,台灣近期關於人工智慧的相關法規、規範、指引、辦法、原則,除 2018 年提出所謂的「 AI小國大戰略 」、 2019年時有立委提出應擬「 人工智慧發展基本法 」、2023年8月由國科會所擬的「 使用生成式AI參考指引(草案) 」,國內腳步最快的監管機關應該是金融管理委員會,在2023年10月公布「 金融業運用人工智慧(AI)之核心原則及政策 」,有相關的指引和配套措施。 當其他國家為避免發展人工智慧傷害人民而陸續建立事前管制的法規時,我有點擔心,台灣的法規進度在哪裡?如果從0到10,10是歐盟AI Act的程度,那台灣會在哪裡?台灣所謂的 AI內閣,有什麼 AI 操作或監管指引嗎? 關於全球 AI政策發展的觀察站 有興趣的人可以多閱讀 OECD 的 OECD.AI ,這裡面收集相對完整的全球立法資訊,自我 2019 年開始看這個網站到現在,這幾年網站內的內容增加非常多。 年初時一場線上研討會,參與者建議除了原有的功能外,也可以再提供一些政策研析,畢竟 OECD裡有許多的專家,不僅僅是討論及觀測經濟發展而已,這個意見很快被採納,但寫文章需要時間,所以他們也利用一些AI功能可以搜集收章,讓網站出現大量的文章。今年除了新增文章外,也看到有他們正在全球觀測所謂的 AI Incidents ,使用者可以透過網站了解全球因為開發或使用人工智慧系統所出現的實際危害事件,也 定義AI Incidents和 AI Hazard的不同 。免費,每個人都可以

關於花精的FAQ(4)--使用篇

這部份有十六個Q & A,內容很多,我想應該可以解決在使用花精上最常見的疑問。 花精是芳香療法嗎?是保養品嗎?是藥品嗎? 花精應該算是順勢療法的一種,可以外用也可以食用,不能說是保養品,因為沒有保養品用在皮膚上的直接效果,可以確定的是,花精並不是藥品也不含所謂藥品的效用,但它確實能藉由自花朵萃取出來的能量來平衡人心中的負面情緒。 花精買回家之後要怎麼使用? 通常買回家的花精我們被稱為Stock Bottle,裡面有濃度較高的酒精,所以只要放在陰涼處通常可以放很久,但是如果你的居住地方較悶熱,還是建議放在冰箱裡會比較恰當。平常我們在使用的被稱為Treatment Bottle,調配方式如下: 你要先有一個30ml的玻璃瓶,要有滴管,可以少於30ml,買回家後先用沸水煮5分鐘。注意滴管部位的塑膠不要放到熱水裡。 在已消毒過的30ml玻璃瓶中加入礦泉水或是乾淨的飲用水。 從每個花精的Stock bottle裡各取出兩滴花精加到這30ml的瓶子裡。 每天喝四次,每次取四滴,加入水或是飲料裡,或是直接滴四滴到嘴巴裡。 如果你要搭配急救花精的話,加入Treatment Bottle中的急救花精是四滴,其他的花精還是以每種兩滴為主。 我已經有使用其他的花精了,我可以混用巴哈花精嗎? 原則上是不建議。像是如果你本身已經有澳洲花精的急救花精,就不建議再混合巴哈花精的急救花精。 花精在調配上最多幾種?可不可以三十八種全用? 一般而言一瓶Treatment Bottle裡最多不超過六種花精,因為太多的花精可能會讓你看不清楚自己真正需要的是什麼?也解決不了根本的問題,可能短期內改善了某種情緒但長期而言是沒有改變的,也有可能會互相抑制。但因為每個人的情況不同,有些人可能只需要一種或兩種;有些人可能需要調配到七種或八種,甚至有些人需要三十八種全部,當我們真正的了解自己的情緒問題出在哪裡時,就知道適合的花精到底有哪些,再慢慢的排除掉不需要的花精。 用錯花精會不會有不良的影響? 不會,花精是很溫和的東西,簡單的就成份上而言,它就是水而已,頂多加上了白蘭地防腐,特別一些的說法是,花精多了自然界的能量。花精所改善的是我們的負面情緒或是較黑暗的性格,如果選擇了不適合的花精也不會有什麼不好的影響。 如果我已經有其他品牌的急救花精,而且還有很多,我一定要再重新買巴哈急救花精嗎? 不用,選擇最適合自己

聊聊台灣的人工智慧政策發展進度-亞太地區

前篇的歐美國家政策發展 ,在台灣政府部門應該都找得到相關研究報告,亞太地區的相對少一點,日本、新加坡、中國是台灣政府部門較常觀察的國家,亞太地區的國家太多,所以我不會寫太多,很可惜就沒納入印度、泰國、越南、馬來西亞、菲律賓等國家,但這些國家也有不少報告可以參考,有興趣的人可以再去找一下。 中國 中國應該是台灣人最容易觀察的國家,也是較沒有閱讀障礙的國家。中國的《 互聯網信息服務深度合成管理規定 》第 19 條對生成式AI的服務提供者需要備案登記,所以有一個「 互聯網信息服務演算法備案系統 」,可以在上面看到有哪些演算法正在等候審查,在 4 月時就有 69條演算法,裡面還包括 1 個人才與職位的匹配演算法系統。 韓國 韓國是我觀察的國家之一,他們發展資料治理的策略不會輸給台灣政府常引為標竿的新加坡,2個國家的政治體系、文化不同。談到「數位政府」或「智慧國家」,大家多會聯想到新加坡,但在聯合國電子化政府評比、OECD的數位政府相關評比,韓國是在評比結果裡都是亞洲國家之首。每當我看到韓國發展相關政策進度時,也會讓我為台灣的現況感到擔憂。 韓國科學技術資訊通信部 (MSIT)在 2022年公布「實現可信人工智慧的策略」 ( Strategy to realize trustworthy artificial intelligence ),並在2024年的工作計畫中表示要成立AI安全研究所(AI Safety Research Institute)負責研究及解決AI所帶來的挑戰。除MSIT外,韓國也有個人資料保護委員會 (韓國PIPC),也就是國家等級的個資保護單位,他們涉及的領域很廣,在 2023年 8 月時,韓國PIPC公布《 人工智慧時代個人資訊安全使用政策指引 》,韓國 PIPC 將會建立以原則為中心的監管系統,也提供AI開發與服務階段個資處理標準的規範、公私合作的指引等。在 9 月時,韓國總統向世界宣布《 數位權利法案 》,10月時就組成專家小組處理與人工智慧相關的隱私議題,並依照 8 月的規劃,成立「 AI 隱私公私政策理事會 」,主要 3 大部門,主題分別為資料處理標準、風險評估、透明,由 32位來自學術界、法律界和工業界的專家組成,並由韓國 PIPC及LG的AI研究所所長共同擔任主席。在11月時就提出「 AI技術法遵示範計畫 」,發展事前評估制度。MSIT 也