近日,佛羅里達州一家醫(yī)院成功通過網絡測試了遠程機器人手術的可行性。
在該次測試中,手術醫(yī)生與醫(yī)院距離1200多英里,利用網絡遙控手術機器人,對模擬病人(虛擬患者模擬器)進行手術。隨后,佛羅里達這家醫(yī)院計劃將距離拉得更遠,讓遠在丹佛、加州甚至是羅馬的醫(yī)生遠程操作手術機器人進行手術。
佛羅里達醫(yī)院尼科爾森中心CTO羅杰·史密斯表示,通過這些測試,他們確定,遠程手術在美國境內是可行的。全美網絡延遲性已經大大降低,不再是遠程機器人手術的限制因素,而可靠性、社會接受度、保險以及法律責任等相關問題才是這種手術的限制因素。
此外,在這次測試中,佛羅里達州醫(yī)院使用的是達芬奇機器人手術系統(tǒng),這是目前世界各地最常見的機器人手術設備。
來自日本東京大學的Hiroharu?Kato和Tatsuya?Harada最近公布了一臺計算機,它能將語言描述轉換成圖像。
幾年前,計算機科學家開始把圖像當作一系列像素來對待,圖像會被分成一系列的短序列,每個序列對應圖像的一個特定部分。例如,一個短序列可能對應一個杯子的邊緣、皮膚的某個區(qū)域或天空的某部分。
這些短序列對人類可能沒有什么意義,但計算機能將它們視為關鍵詞。計算機科學家稱這些序列為“視覺關鍵詞”。
如何將視覺關鍵詞轉化成圖像?Kato和Harada用了兩種不同的方法。第一種是評估每個視覺關鍵詞如何和其他視覺關鍵詞組合在一起。第二種是評估給定的視覺關鍵詞應該出現在圖像特定部分的可能性,例如,表示天空區(qū)域的視覺關鍵詞更可能出現在圖像的頂部。
有了以上兩種方法的鋪墊,計算機有望能夠明白人類普通的日常句子,并生成相應的圖像。
(摘編自雷鋒網)