공개 최종 클래스 FakeQuantWithMinMaxVarsPerChannelGradient
FakeQuantWithMinMaxVarsPerChannel 작업에 대한 기울기를 계산합니다.
중첩 클래스
| 수업 | FakeQuantWithMinMaxVarsPerChannelGradient.Options |  FakeQuantWithMinMaxVarsPerChannelGradient 에 대한 선택적 속성  | |
상수
| 끈 | OP_NAME | TensorFlow 코어 엔진에서 알려진 이 작업의 이름 | 
공개 방법
| 출력 < TFloat32 > |  backpropWrtMax ()  역전파 그라디언트 wrt  | 
| 출력 < TFloat32 > |  backpropWrtMin ()  역전파 그라디언트 wrt  | 
| 출력 < TFloat32 > |  backpropsWrtInput ()  역전파 그라디언트 wrt  | 
| 정적 FakeQuantWithMinMaxVarsPerChannelGradient | |
| 정적 FakeQuantWithMinMaxVarsPerChannelGradient.Options |  NarrowRange (부울 NarrowRange)  | 
| 정적 FakeQuantWithMinMaxVarsPerChannelGradient.Options |  numBits (긴 numBits)   | 
상속된 메서드
상수
공개 정적 최종 문자열 OP_NAME
TensorFlow 코어 엔진에서 알려진 이 작업의 이름
 상수 값: "FakeQuantWithMinMaxVarsPerChannelGradient" 
공개 방법
공개 출력 < TFloat32 > backpropWrtMax ()
역전파된 기울기는 최대 매개변수, 모양 `[d]`: `sum_per_d(gradients * (inputs > max))`입니다.
공개 출력 < TFloat32 > backpropWrtMin ()
역전파 그라디언트 wrt 최소 매개변수, 형태 `[d]`: `sum_per_d(gradients * (inputs < min))`.
공개 출력 < TFloat32 > backpropsWrtInput ()
역전파 그라디언트는 입력과 모양이 동일하며 `입력`: `그라디언트 * (입력 >= 최소 && 입력 <= 최대)`입니다.
공개 정적 FakeQuantWithMinMaxVarsPerChannelGradient 생성 ( 범위 범위, 피연산자 < TFloat32 > 그라디언트, 피연산자 < TFloat32 > 입력, 피연산자 < TFloat32 > 최소, 피연산자 < TFloat32 > 최대, 옵션... 옵션)
새로운 FakeQuantWithMinMaxVarsPerChannelGradient 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
매개변수
| 범위 | 현재 범위 | 
|---|---|
| 그라데이션 | FakeQuantWithMinMaxVars 연산 위의 역전파 기울기는 `[d]`, `[b, d]`, `[b, h, w, d]` 중 하나를 형성합니다. | 
| 입력 | FakeQuantWithMinMaxVars 작업에 입력으로 전달된 값은 `gradients`와 모양이 동일합니다. min, max: 양자화 간격, `[d]` 모양의 부동소수점. | 
| 옵션 | 선택적 속성 값을 전달합니다. | 
보고
- FakeQuantWithMinMaxVarsPerChannelGradient의 새로운 인스턴스
 
공개 정적 FakeQuantWithMinMaxVarsPerChannelGradient.OptionsarrowRange ( BooleanarrowRange)
매개변수
| 좁은 범위 | 2^num_bits - 1개의 고유 값으로 양자화할지 여부입니다. | 
|---|
공개 정적 FakeQuantWithMinMaxVarsPerChannelGradient.Options numBits (Long numBits)
매개변수
| numBits | 양자화의 비트폭. 2부터 16까지. | 
|---|