추천 시스템에 대한 철저한 연구[8]는 정적 분석(감독 이해)을 위한 통계적 접근 방식인 4개의 최신 알고리즘을 사용하지만, 우리가 연구하는 강화 이해 공식은 제외됩니다. Jannach와 Jugovac [9]는 온라인 서비스와 같이 추천 시스템이 실행되는 환경에 어떻게 추가되는지 살펴봅니다. 우리는 이러한 문제가 데이터의 정당성, 불충분함 또는 오류와 같은 어려움에서 두드러지며, 학습 실패를 유발하지만 다른 메커니즘과 다양한 효과를 가지고 있음을 다시 한 번 확인합니다.
네트워크 트래픽 보기를 필터링하는 아이디어
실제로 eIQ 툴킷을 탑재했습니다. 그러나 설계를 훈련할 때 사전 훈련된 모델을 다운로드 및 설치하지 않고 오류와 함께 실패합니다. 내가 프록시 뒤에서 작동하고 있다는 점을 고려할 때 설정을 설정할 수 있는 위치를 인식하는 데 도움을 줄 수 있습니까? 컬렉션을 사용하면 원하는 세계 집합과 이것의 상위 집합인 프록시를 갖게 됩니다(원하는 것을 구체적으로 조준할 수 없다는 사실 때문에). 문제는 AI가 높은 보장으로 상위 집합에 들어가고 거기에 남아 있도록 향상되고 있다는 것입니다. .
더 많은 요소는 기본 또는 예비 기호(우리 용어로는 프록시)가 선호되는 결과를 효과적으로 나타낸다는 가정입니다. 예를 들어, 의료 시설에서 퇴원했다고 해서 반드시 개인이 완전히 회복되었음을 의미하지는 않습니다. 이러한 문제는 정보 표현에 불완전성이 없는 경우에도 발생합니다. (이러한 예는 우리의 것입니다. Mitchell et al.은 다른 영역에서 가져온 유사한 예를 제공합니다.) 이 작업은 아래에서 더 자세히 검토됩니다. 다기관 협력에서 모든 고객은 실제로 수집한 데이터의 개인 정보를 보호할 책임이 있습니다.
프록시 기안 관련
FedAvg 및 FML-proxy와 같은 중앙 집중식 시스템은 AvgPush 및 ProxyFL-proxy와 같은 분산형 대응 시스템 대신 절차 중에 많은 것을 발견하지 못하는 것을 볼 수 있습니다. 롤대리 ProxyFL-private은 교육 전반에 걸쳐 지속적으로 FML-private보다 성능이 뛰어나므로 ProxyFL 디자인이 FML에 비해 훨씬 더 나은 이해 신호를 비공개 버전에 제공할 수 있음을 보여줍니다. B 고객이 이기종 모델 아키텍처를 가지고 있을 때의 정확도, 그리고 차등 배타적인 교육이 있거나 없는 정확도. 각 숫자 보고서는 5개의 독립 실행 각각에 대해 8명의 클라이언트에 대한 일반적인 불일치뿐만 아니라 평균을 의미합니다.
저희 작업에서 보다 직접적으로 중요한 것은 Haug et al. [2] 시스템에서 캡처한 속성과 고객의 관심도 사이에 불평등이 있을 때 피드백을 통한 학습의 행동에 대해 생각합니다. 초점은 시스템이 특정 작업에서 잘 수행되도록 개인에 의해 명시적으로 교육되는 학습의 특정 응용 프로그램입니다. 그들은 그러한 맥락에서 인센티브 기능(우리 용어로는 프록시)이 찾고 있는 ‘실제’ 인센티브와 일치하지 않을 수 있음을 보여주고, 부족한 것이 밝혀졌습니다. 즉, 실패라는 문제의 일반성과 그에 대한 탐색이 분석되지 않는다. 우리는 MNIST37, Fashion-MNIST(FaMNIST) 38, CIFAR-1039에 대해 실험을 수행했습니다. MNIST와 FaMNIST는 차원이 28 × 28인 60,000개의 훈련 사진을 가지고 있는 반면, CIFAR-10은 크기가 32 × 32인 50,000개의 RGB 훈련 사진을 가지고 있습니다. 각 데이터 세트에는 모델 성능을 검토하는 데 사용되는 10,000개의 테스트 이미지가 있습니다. 실험은 8명의 고객에 해당하는 8개의 V100 GPU가 있는 서버에서 수행되었습니다. 각 실행에서 모든 클라이언트는 훈련 세트에서 맛본 1k(MNIST 및 FaMNIST) 또는 3k(CIFAR-10) 겹치지 않는 독점 사진을 가지고 있었는데, 이는 제공된 훈련 정보의 하위 집합만 전반적으로 사용되었음을 나타냅니다. 카테고리 작업. 비 IID 정보에 대한 견고성을 조사하기 위해 클라이언트에게 왜곡된 독점 정보 순환을 제공했습니다. 각각의 모든 클라이언트에 대해 무작위로 선택된 클래스가 할당되었고 해당 고객의 개인 데이터 중 주요 부분(MNIST 및 FaMNIST의 경우 0.8, CIFAR-10의 경우 0.3)도 해당 과정에서 가져왔습니다. 계속되는 정보는 IID 방식으로 다른 모든 과정에서 임의로 가져왔습니다. 따라서 고객은 IID 시험 수집을 잘 일반화하기 위해 협력자로부터 이익을 얻을 필요가 있습니다. 그들은 공유 이해 전달을 위한 방법인 깊은 상호 이해(DML)24의 DP 버전을 사용하여 훈련됩니다. DML은 훈련을 허용한다는 점에서 사전 교육을 받은 교육자와 일반적으로 더 작은 규모의 학생25 사이의 전문성 증류와 긍정적으로 대조됩니다. g 처음부터 한 번에 두 버전을 모두 제공하며 두 버전 모두에 유용한 정보를 제공합니다. FML(Federated Mutual Discovering)26은 우리의 프록시 버전과 유사한 밈 디자인을 제시하며, 각 클라이언트의 개인 디자인과 동일하게 훈련되지만 메인 서버에 축적됩니다. 그럼에도 불구하고 FML은 시스템화되어 있고 고객에게 개인 정보 보호 보증을 제공하지 않기 때문에 다기관 협업 설정에 적합하지 않습니다. 본 논문에서는 다중 클래스 베이즈 분류기에 대한 이론적 이해 등고선을 도출하였다. 이 등고선은 클래스 조건부 가능성 두께의 기본 다변량 파라메트릭 모델에 적합합니다. 파생은 진리 클래스의 사후 확률에 비례하는 통계의 병합 분석을 기반으로 프록시 접근 방식을 사용합니다. 그렇게 함으로써 윤곽선은 특성 벡터의 차원뿐만 아니라 트레이닝 세트 차원에만 의존합니다. 설계 기준에 의존하지 않습니다. 기본적으로 발견 곡선은 훈련 설정 차원을 부스팅하여 얻을 수 있는 오류 확률의 초과 감소에 대한 견적을 제공합니다. 이는 이상적인 교육 설정 크기를 지정하는 합리적인 문제를 처리하기 위해 매력적입니다. E2CO(Embed to Control and also Observe)라고 하는 다른 E2C 기반 프록시 버전은 전환 결과라는 추가 네트워크 블록을 활용하여 시스템 결과를 바로 예측할 수 있으며 특정 우물 모델 공식이 필요하지 않습니다. 3D 컨볼루션 레이어를 활용하여 기존 E2C 및 E2CO 설계를 업데이트하고 3D 변경 조건을 처리하기 위해 손실 함수를 사용자 정의했습니다. 노력 없이는 탐색 속도가 빠르면 알고리즘이 최적화되지 않은 무기를 너무 자주 제공해야 하며 탐색 가격이 느리면 확실히 이해 속도가 느려질 것입니다. 초기(1998) 버전에서 Sutton과 Barto는 원정이 일정한 우도 ϵ로 수행되는 ϵ-탐욕 정책을 도입했습니다. 이 작업은 오늘날 훨씬 더 일반적인 권장 사항으로 개선되었습니다. [12] Auer et al. [13] 연구는 Lai와 Robbins가 제공하는 최적의 후회 조건을 만족하기 때문에 최적임을 증명할 수 있는 다양한 응용 프로그램을 연구합니다. 우리가 사례 연구로 검토하는 인공 지능 기반 장치는 추천 시스템입니다. 이들은 고객이 선택할 수 있는 항목의 체크리스트를 제공하기 위해 사용자의 선택을 발견하도록 설계되었습니다. 그럼에도 불구하고 이 타고난 인간 결과는 시스템에서 직접 볼 수 없으므로 프록시를 대신 사용해야 합니다. Suresh와 Guttag[3]는 기계 학습의 ‘의도하지 않은 결과’로 공정성에 대한 우려를 특징지으며, 이는 우리 작업으로 구성됩니다. 그들의 분류법(및 이전 분류법의 동화)은 데이터 수집 및 준비 작업과 뒤따르는 설계 개선, 평가, 후처리 및 구현의 수집으로서 기계 학습의 추상적 요약에 달려 있습니다. 우리의 작업은 일반적으로 Suresh의 확장과 Guttag의 구조로 구성될 수 있으며, Danks와 London[4]에 의해 검토된 버전 적응 또는 번역과 같은 다양한 다른 제약이 있을 수 있으며 아래에서 추가로 고려합니다. 사례 연구로 다음과 유사한 영화 추천 시스템을 활용합니다.
중앙 사양 서버를 활용하여 Shen et al과 비교할 수 있는 프록시의 평균을 계산할 수 있습니다. 26. 그러나 이것은 클라이언트의 다양성에서 선형적으로 확장되는 상호 작용 비용을 확실히 발생시킬 것이며 또한 분산되지 않습니다. PushSum 방식13, 15을 사용하여 상호 작용 비용을 크게 줄이는 고객 간의 대리 거래를 권장합니다. 원시 정보는 고객 장치를 떠나지 않지만 FL은 여전히 프라이버시 위반에 취약합니다27, 28. DP는 FL과 통합되어 참여하는 모든 클라이언트의 프라이버시를 보장하는 중앙 모델을 교육합니다29. 그래디언트 업데이트가 모든 종류의 단독 훈련 예시의 정보에 크게 의존하지 않도록 함으로써 그래디언트를 DP 보장30으로 중앙에서 집계할 수 있습니다.
인간의 행동과 실제 세계는 풍부하고 완벽하게 설명할 수 없다는 사실 때문에 일부 인간의 관행은 확실히 완전히 기록되지 않을 것이며 일부 프록시는 부적절할 것입니다. 오해는 피할 수 없습니다. 우리는 이러한 요소의 영향으로 공식이 성능이 좋지 않다는 사실을 발견할 수 없으며 이는 잘 작동하는 것으로 생각되는 시스템에 대해서도 인공 지능의 광범위한 응용 프로그램에 내재된 어려움임을 제안합니다. 개인 및 프록시 설계로 구성된 모든 방법에 대해 우리는 임의로 부팅된 가중치와 함께 torchvision 패키지53에서 실행되는 표준 ResNet-18 신경망 아키텍처52를 활용했습니다. ResNet 디자인은 B를 사용합니다.
Leave a Reply