공개 최종 클래스 QuantizedMatMulWithBias
바이어스 덧셈을 사용하여 'a'와 행렬 'b'의 양자화된 행렬 곱셈을 수행합니다.
입력은 2차원 행렬과 1D 바이어스 벡터여야 합니다. 그리고 `a`의 내부 차원(`transpose_a`가 0이 아닌 경우 전치된 후)은 `b`의 외부 차원(`transposed_b`가 0이 아닌 경우 전치된 후)과 일치해야 합니다. 그런 다음 행렬 곱셈 결과에 대한 바이어스 값을 사용하여 브로드캐스트 추가 작업을 수행합니다. 바이어스 크기는 'b'의 내부 차원과 일치해야 합니다.
중첩 클래스
수업 | QuantizedMatMulWithBias.Options | QuantizedMatMulWithBias 의 선택적 속성 |
상수
끈 | OP_NAME | TensorFlow 코어 엔진에서 알려진 이 작업의 이름 |
공개 방법
static <W는 TType을 확장합니다. > QuantizedMatMulWithBias <W> | |
정적 QuantizedMatMulWithBias.Options | inputQuantMode (문자열 inputQuantMode) |
출력 < TFloat32 > | 한계에 달하다 () 가장 높은 양자화된 출력 값이 나타내는 부동 소수점 값입니다. |
출력 < TFloat32 > | 최소 출력 () 가장 낮은 양자화된 출력 값이 나타내는 부동 소수점 값입니다. |
출력 <W> | 밖으로 () |
정적 QuantizedMatMulWithBias.Options | transposeA (부울 전치 A) |
정적 QuantizedMatMulWithBias.Options | transposeB (부울 전치 B) |
상속된 메서드
상수
공개 정적 최종 문자열 OP_NAME
TensorFlow 코어 엔진에서 알려진 이 작업의 이름
상수 값: "QuantizedMatMulWithBias"
공개 방법
public static QuantizedMatMulWithBias <W> create ( Scope 범위, 피연산자 <? 확장 TType > a, 피연산자 <? 확장 TType > b, 피연산자 <? 확장 TType > 바이어스, 피연산자 < TFloat32 > minA, 피연산자 < TFloat32 > maxA, 피연산자 < TFloat32 > minB, 피연산자 < TFloat32 > maxB, Class<W> Toutput, 옵션... 옵션)
새로운 QuantizedMatMulWithBias 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
매개변수
범위 | 현재 범위 |
---|---|
ㅏ | 곱할 행렬입니다. 'quint8' 유형의 2차원 텐서여야 합니다. |
비 | 곱할 행렬이며 'qint8' 유형의 2차원 텐서여야 합니다. |
편견 | 크기가 `b`의 내부 차원과 일치하는 1D 바이어스 텐서(`transposed_b`가 0이 아닌 경우 전치된 후). |
분A | 가장 낮은 양자화된 `a` 값이 나타내는 부동 소수점 값입니다. |
최대A | 가장 높은 양자화된 `a` 값이 나타내는 부동 소수점 값입니다. |
분B | 가장 낮은 양자화된 `b` 값이 나타내는 부동 소수점 값입니다. |
최대B | 가장 높은 양자화된 'b' 값이 나타내는 부동 소수점 값입니다. |
옵션 | 선택적 속성 값을 전달합니다. |
보고
- QuantizedMatMulWithBias의 새로운 인스턴스
공개 정적 QuantizedMatMulWithBias.Options inputQuantMode (문자열 inputQuantMode)
매개변수
입력QuantMode | 입력 데이터 양자화 모드. MIN_FIRST(기본값) 또는 SCALED입니다. |
---|
공개 정적 QuantizedMatMulWithBias.Options transposeA (부울 transposeA)
매개변수
전치 A | true인 경우 'a'는 곱하기 전에 전치됩니다. |
---|