給AI 繪畫工具Midjourney 輸入「吃豆人遊戲介面,吃豆人,鬼魂,墨色,眨眼,克萊德,吃豆迷宮,吃豆,蒙德里安風格,現代藝術,現代主義,綻放」後得到的畫面。
當你向AI 繪畫工具(如DALL-E 或Midtravel)輸入文字prompt 以使其產生圖片,或要求自動產生程式碼的AI 工具-Copilot 編寫一些軟體時,它們得到的結果可以稱得上是藝術品。
我們可以將這個過程稱為「工程」,聽起來似乎很精確,也很合乎邏輯。但如果你去Discord 平台上查看人們在Midjourney 應用中輸入的prompt,你會看到這樣的內容:
galaxy arising from a brain, 8k, octane render, micro detailed — upbeta — test — creative
my teeth are yellow, hello world :: would you like me a little better if they were white like yours — s 5000 — q 2 — upbeta — v 3
hg giger lovecraft nightmarish realm where monsters eternally reign terror
#chaos corrupted the once valor knight, transforming them into a##chaos corrupted the once valor knight, transforming them into powerful villian. Horns bursted from their heads, wing and tails grew from their sides, fingers and toes grew into claws. this is what does the void does. this is how life loses….
講道理寫prompt 肯定有一種正確的姿勢,現實是往往寫起來感覺又無跡可尋,就像是使用魔法咒語的時候,不小心就會把魔咒裡的單字放錯了地方,很容易就把事情搞砸了。
說得搞笑點,寫 prompt 似乎就像人類試圖哄騙「一隻急切又困惑的馱運動物」來幹活。我們認為它明白我們在說什麼,但溝通方式卻是大喊大叫,亂跑亂跳。
可以說現在是人工智慧史上一個非常奇怪的時刻。幾十年來,人工智慧在圖靈測試的「陰影」下不斷進步(並非總是如此,但經常如此),圖靈測試認為「聰明」人工智慧的行為和溝通方式與聰明人完全一樣。
根據圖靈的想法,比如說,如果一個人工生命體能夠討論當前發生的事件,那麼它就可以被認為是智慧的。近年來,我們將這種清晰、精確、自然的語言期望擴展到日常設備:與蘋果 Siri 和亞馬遜 Alexa 交談,詢問天氣或設定計時器。
但與產生藝術作品的人工智慧「對話」截然不同。 我們試著讓它們創造一些東西。這意味著,如果人工智慧犯了錯誤,後果會嚴重得多。沒人在乎線上聊天機器人聊天的時候突然斷線。如果聊天機器人不是即時直播 NBA,那就沒什麼大不了的。
但如果我們有一個特定的創造需求來讓人工智慧滿足呢?如果我們想讓它寫一篇具有特定內容和風格的部落格文章呢?我們當然需要確保我們能夠與它正確溝通。
這意味著我們必須開始思考人工智慧在想什麼,或者更確切地說,它是怎麼想的。我們必須進一步發展心理學家所說的機器「心智理論」。 「聽起來好像天方夜譚,對吧?」正如 OpenAI 聯合創始人 Andrej Karpathy 在談到 Copilot 時告訴筆者的那樣。 「這不是你過去司空見慣的東西。它不像人類的心智理論。它就像是一個外星人的人工製品,而且是從大規模的優化過程中產生的。」
Andrej Karpathy
筆者並不是說這些人工智慧其實是有意識的、智慧的或其他什麼。 它們只是非常微妙的模式辨識器和序列完成器,內在更像是一片混亂的數學海洋。
但是,又因為我們是用語言向它們發出命令,這讓我們陷入了一種奇怪的心理關係 —— 試圖探知裡面發生了什麼。
筆者想起了古希臘人如何與德爾菲神諭(Delphic oracle)互動。德爾菲神諭被認為能通曉過去、現在和未來。提問後的答案可能很奇怪,因為從本質上講,這就好像是在和外國人說話一樣,誰知道你會得到什麼結果?
研究藝術機器人內部工作的科學家們記錄了一些這些機器奇怪的內部狀態。最近,德州大學奧斯汀分校的兩名研究人員發現,DALL-E 2 產生了明顯的亂七八糟的短語,在模型本身中,這些短語似乎具有某種一致的含義。
他們注意到模型產生了短語“Apoploe vesrreitais”,當他們將其作為 prompt 反饋給 DALL-E 2 時,它畫出的是鳥類。類似地,接受到“Contarra ccetnxniams luryca tanniounons”後會繪製昆蟲或害蟲。用「Wa ch zod ahakes rea」會製作出海鮮的圖片。
這是為什麼呢?模型是如何產生這種奇怪的內部新語言的?科學家對此一無所知,儘管這看起來像是 DALL-E 2 的文本編碼器的對抗性產物。
同樣,prompt 編寫專家們說,不斷重複短語是一種技巧,就像 Michael Taylor 在《Prompt Engineering: From Words to Art》所寫的那樣。
連結:https://www.saxifrage.xyz/post/prompt-engineering
##DALL-E 2、Midtravel 或其他AI 藝術工具在生成影像時需要真正捕捉到重要特性,此時簡單重複的效果出乎意料地好。以這組prompt 為例:「homer simpson, from the simpsons, eating a donut, homer simpson, homer simpson, homer simpson」
感覺好像是我們需要催眠,使人工智慧其專注於我們關心的主題。你也可以在 prompt 編寫者通常使用的大量描述性字詞中看到這一點。看看 Xe Iaso 結合 stable diffusion 產生的圖像:
#不得不說畫面還是有點詩意的。與藝術 AI 的交流感覺就像一個文字遊戲 —— 就像玩 Charades 或 Taboo,你必須透過圍繞一個主題進行對話來觸發 AI 產生正確的結果 #。除此之外,我們的目標是找到正確的咒語,喚醒居住在那座由媒介物組成的聖壇中的靈魂,並召喚它們聽從你的命令。
正如Xe 所說的,「我也不太清楚為什麼人們會把prompt 稱為『工程』,我個人更願意稱它為『占卜』。」
也許,我們需要對prompt 生成模型做一些嚴謹的澄清。因為它要求我們以一種完全瘋狂的方式進行交流,所以它不太像是能滿足圖靈測試的要求,在智力上並不“像”我們。筆者堅信總有一天藝術 AI 是能像我們的!但現在,它們確實真的很奇怪。
以上是目前prompt工程太像占卜了,與藝術AI溝通就像文字遊戲的詳細內容。更多資訊請關注PHP中文網其他相關文章!