差分隱私(Differential Privacy)是一種隱私保護技術,旨在在資料發佈或資料分析過程中,最大程度地保護個人隱私。它通過添加雜訊或擾動來混淆資料,以防止針對特定個體的隱私洩露。

差分隱私的核心思想是確保資料分析結果對於任何單個個體的貢獻是不顯著的,即使知道其他個體的資訊。這意味著無論是否知道除了某個特定個體之外的其他資料,該特定個體的資料對結果的影響都應該非常有限,從而保護了其隱私。

應用差分隱私的方法包括向資料中添加隨機雜訊、擾動查詢結果或調整資料集的分佈。這些方法可以在資料發佈、資料分析和機器學習訓練等場景中使用,以防止敏感資訊的洩露。

差分隱私技術在隱私保護、資料共用和資料發佈方面有著廣泛的應用。它允許在資料分析和共用過程中,提供對個人隱私的高度保護,同時仍然允許對資料進行有意義的分析和利用。

閱讀全文 »

Introduction

PySyft是一個用於私隱保護機器學習的Python庫。它基於PyTorch,旨在實現安全和私隱保護的機器學習技術。PySyft提供了工具和功能,使得在分散式環境中進行機器學習模型訓練和預測時能夠保護敏感數據。

閱讀全文 »

Introduction

「Backdoor Watermarking」是一種數位浮水印技術,用於保護智慧財產權或確保資料安全。與傳統數位浮水印不同,後門數位浮水印技術被設計用於在資料中引入一種隱秘的標記或特徵,該標記可以作為後門或秘密通道的形式存在。這種標記通常對正常的資料處理不會產生影響,但當特定條件被滿足時,這些標記可以被識別出來。

後門數位浮水印通常在特定情況下才會被啟動或檢測出來,例如在未經授權的資料訪問或未經授權的使用情況下。它們可以用於確認資料的合法性、追蹤資料的來源、防止未經授權的複製或修改等方面。

這種技術的應用包括版權保護、內容安全、防止資料盜竊等方面。它為資料提供了一種隱藏的保護機制,當資料被非法使用或未經授權時,可以説明確定資料的合法性並追蹤資料的來源。

閱讀全文 »

簡介

We focus on automatic segmentation of multiple anatomical structures in (whole body) CT images.
Many segmentation algorithms exist for this task. However, in most cases they suffer from 3 problems:

  1. They are difficult to use (the code and data is not publicly available or difficult to use).
  2. They do not generalize (often the training dataset was curated to only contain very clean images which do not reflect
    the image distribution found during clinical routine)
  3. The algorithm can only segment one anatomical structure. For more structures several algorithms have to be used which increases the effort required to set up the system.

In this work we publish a new dataset and segmentation toolkit which solves all three of these problems:
In 1204 CT images we segmented 104 anatomical structures (27 organs, 59 bones, 10 muscles, 8 vessels)

閱讀全文 »

簡介

「稀疏學習」是一種機器學習技術,旨在學習具有稀疏性的模型或參數,以便有效地表示數據並提取重要的特徵。稀疏學習強調僅使用少量的非零元素來表示數據,從而減少計算和存儲的成本,同時保持良好的性能。

閱讀全文 »

簡介

流形學習(Manifold Learning)是一種機器學習和數據分析的技術,旨在探索和理解高維數據在低維流形(manifold)中的結構。在現實世界中,很多數據存在於高維空間,但實際上可能分佈在更低維的嵌入子空間中。流形學習的目標是通過將這些嵌入子空間中的結構轉化為更容易可視化、分析和處理的形式,以便更好地理解數據的特點和關係。

閱讀全文 »

簡介

對抗性示例(Adversarial Examples)是指在機器學習和人工智慧領域中,經過故意修改的輸入數據,通常是對原始數據進行微小但精心設計的改變,這種修改可以導致訓練有素的機器學習模型產生出錯誤的結果。

對抗性示例的產生是通過在原始輸入數據中添加微小的、人眼難以察覺的扰動,這些扰動在數據空間中的位置通常是調整過的,以便最大限度地欺騙機器學習模型。儘管對抗性示例的改變通常對人類觀察者來說是微不足道的,但它們卻能夠導致模型做出顯著不同的預測,甚至產生錯誤的結果。

對抗性示例的研究具有重要的意義,它揭示了當前機器學習模型的脆弱性,這些模型在面對微小變化時可能會出現不穩定的行為。為了提高模型的穩健性,研究者們努力開發抵抗對抗性示例攻擊的方法,以確保模型在面對這種干擾時能夠保持較高的準確性和可靠性。

閱讀全文 »

簡介

「表徵學習」(Representation Learning)是機器學習和人工智慧領域的一個概念,其主要關注自動構建有意義和有用的數據表示(特徵或抽象),將原始的高維數據轉換成更緊湊且信息豐富的形式,以捕捉其中重要的潛在模式或特徵。

閱讀全文 »
0%