중단 | 호출 시 프로세스를 중단하려면 예외를 발생시킵니다. |
모두 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 및"를 계산합니다. |
모두투모두 <T> | TPU 복제본 간에 데이터를 교환하는 작업입니다. |
익명해시테이블 | 초기화되지 않은 익명 해시 테이블을 만듭니다. |
익명IteratorV2 | 반복자 리소스의 컨테이너입니다. |
익명IteratorV3 | 반복자 리소스의 컨테이너입니다. |
익명메모리캐시 | |
익명MultiDeviceIterator | 다중 장치 반복자 리소스에 대한 컨테이너입니다. |
익명MultiDeviceIteratorV3 | 다중 장치 반복자 리소스에 대한 컨테이너입니다. |
익명변경 가능DenseHash테이블 | 텐서를 백업 저장소로 사용하는 빈 익명 가변 해시 테이블을 만듭니다. |
익명변경 가능해시 테이블 | 비어 있는 익명의 변경 가능한 해시 테이블을 만듭니다. |
익명변경 가능HashTableOfTensors | 벡터 값의 빈 익명 변경 가능 해시 테이블을 만듭니다. |
익명RandomSeedGenerator | |
익명SeedGenerator | |
어느 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 or"를 계산합니다. |
ApplyAdagradV2 <T> | adagrad 체계에 따라 '*var'를 업데이트합니다. |
ApproxTopK <T는 숫자를 확장함> | 입력 피연산자의 최소/최대 k 값과 해당 인덱스를 대략적인 방식으로 반환합니다. |
Assert카디널리티데이터세트 | |
AssertNextDataset | 다음에 어떤 변환이 발생하는지 확인하는 변환입니다. |
AssertPrev데이터 세트 | 이전에 어떤 변환이 발생했는지 확인하는 변환입니다. |
주장하다 | 주어진 조건이 참인지 확인합니다. |
<T> 할당 | 'value'를 할당하여 'ref'를 업데이트합니다. |
할당추가 <T> | 'value'를 추가하여 'ref'를 업데이트합니다. |
할당AddVariableOp | 변수의 현재 값에 값을 추가합니다. |
AssignSub <T> | 'value'를 빼서 'ref'를 업데이트합니다. |
AssignSubVariableOp | 변수의 현재 값에서 값을 뺍니다. |
할당변수작업 | 변수에 새 값을 할당합니다. |
AssignVariableXlaConcatND | 모든 차원에 걸쳐 입력 텐서를 연결합니다. |
AutoShard데이터세트 | 입력 데이터 세트를 샤딩하는 데이터 세트를 생성합니다. |
BandedTriangularSolve <T> | |
장벽 | 다양한 그래프 실행에서 지속되는 장벽을 정의합니다. |
장벽닫기 | 주어진 장벽을 닫습니다. |
장벽불완전한크기 | 주어진 장벽의 불완전한 요소 수를 계산합니다. |
장벽삽입많은 | 각 키에 대해 해당 값을 지정된 구성 요소에 할당합니다. |
배리어준비크기 | 주어진 장벽의 완전한 요소 수를 계산합니다. |
장벽가져다많은 | 장벽에서 주어진 수의 완성된 요소를 가져옵니다. |
일괄 | 모든 입력 텐서를 비결정적으로 일괄 처리합니다. |
BatchMatMulV2 <T> | 두 개의 텐서 조각을 일괄적으로 곱합니다. |
BatchMatMulV3 <V> | 두 개의 텐서 조각을 일괄적으로 곱합니다. |
BatchToSpace <T> | T 유형의 4차원 텐서에 대한 BatchToSpace. |
BatchToSpaceNd <T> | T 유형의 ND 텐서에 대한 BatchToSpace. |
BesselI0 <T 확장 번호> | |
BesselI1 <T 확장 번호> | |
BesselJ0 <T 확장 번호> | |
BesselJ1 <T 확장 번호> | |
BesselK0 <T 확장 번호> | |
BesselK0e <T 확장 번호> | |
BesselK1 <T 확장 번호> | |
BesselK1e <T 확장 번호> | |
BesselY0 <T 확장 번호> | |
BesselY1 <T 확장 번호> | |
비트캐스트 <U> | 데이터를 복사하지 않고 한 유형에서 다른 유형으로 텐서를 비트캐스트합니다. |
BlockLSTM <T는 숫자를 확장합니다> | 모든 시간 단계에 대해 LSTM 셀의 순방향 전파를 계산합니다. |
BlockLSTMGrad <T 확장 번호> | 전체 시간 시퀀스에 대한 LSTM 셀 역전파를 계산합니다. |
BlockLSTMGradV2 <T는 숫자를 확장합니다> | 전체 시간 시퀀스에 대한 LSTM 셀 역전파를 계산합니다. |
BlockLSTMV2 <T는 숫자를 확장합니다> | 모든 시간 단계에 대해 LSTM 셀의 순방향 전파를 계산합니다. |
BoostedTreesAggregateStats | 배치에 대해 누적된 통계 요약을 집계합니다. |
BoostedTrees버킷화 | 버킷 경계를 기준으로 각 기능을 버킷화합니다. |
BoostedTreesCalculateBestFeatureSplit | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTreesCalculateBestFeatureSplitV2 | 각 기능에 대한 이득을 계산하고 각 노드에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTreesCalculateBestGainsPerFeature | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTrees센터바이어스 | 훈련 데이터(편향)에서 사전을 계산하고 첫 번째 노드를 로짓의 사전으로 채웁니다. |
BoostedTreesCreateEnsemble | 트리 앙상블 모델을 생성하고 이에 대한 핸들을 반환합니다. |
BoostedTreesCreateQuantileStreamResource | Quantile Streams에 대한 리소스를 생성합니다. |
BoostedTreesDeserializeEnsemble | 직렬화된 트리 앙상블 구성을 역직렬화하고 현재 트리를 대체합니다. 앙상블. |
BoostedTreesEnsembleResourceHandleOp | BoostedTreesEnsembleResource에 대한 핸들을 생성합니다. |
BoostedTrees예제디버그 출력 | 각 예제에 대한 디버깅/모델 해석 가능성 출력. |
BoostedTreesFlushQuantile요약 | 각 분위수 스트림 리소스에서 분위수 요약을 플러시합니다. |
BoostedTreesGetEnsembleStates | 나무 앙상블 리소스 스탬프 토큰, 나무 수 및 성장 통계를 검색합니다. |
BoostedTreesMakeQuantile요약 | 배치에 대한 분위수의 요약을 작성합니다. |
BoostedTreesMakeStats요약 | 배치에 대해 누적된 통계를 요약합니다. |
BoostedTree예측 | 입력 인스턴스에서 여러 가산 회귀 앙상블 예측기를 실행하고 로짓을 계산합니다. |
BoostedTreesQuantileStreamResourceAddSummaries | 각 분위수 스트림 리소스에 분위수 요약을 추가합니다. |
BoostedTreesQuantileStreamResourceDeserialize | 버킷 경계와 준비 플래그를 현재 QuantileAccumulator로 역직렬화합니다. |
BoostedTreesQuantileStreamResourceFlush | 분위수 스트림 리소스에 대한 요약을 플러시합니다. |
BoostedTreesQuantileStreamResourceGetBucketBoundaries | 누적된 요약을 기반으로 각 기능에 대한 버킷 경계를 생성합니다. |
BoostedTreesQuantileStreamResourceHandleOp | BoostedTreesQuantileStreamResource에 대한 핸들을 생성합니다. |
BoostedTreesSerializeEnsemble | 트리 앙상블을 proto로 직렬화합니다. |
BoostedTreesSparseAggregateStats | 배치에 대해 누적된 통계 요약을 집계합니다. |
BoostedTreeSparseCalculateBestFeatureSplit | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTrees훈련예측 | 입력 인스턴스에서 여러 가산 회귀 앙상블 예측기를 실행하고 캐시된 로짓에 대한 업데이트를 계산합니다. |
BoostedTreesUpdate앙상블 | 성장 중인 마지막 나무에 레이어를 추가하여 나무 앙상블을 업데이트합니다. 또는 새 트리를 시작하여. |
BoostedTreesUpdateEnsembleV2 | 성장 중인 마지막 나무에 레이어를 추가하여 나무 앙상블을 업데이트합니다. 또는 새 트리를 시작하여. |
BroadcastDynamicShape <T는 숫자를 확장함> | 브로드캐스트를 사용하여 s0 op s1의 모양을 반환합니다. |
BroadcastGradientArgs <T는 숫자를 확장합니다> | 브로드캐스트를 사용하여 s0 op s1의 기울기를 계산하기 위한 감소 지수를 반환합니다. |
<T>에 방송 | 호환 가능한 모양에 대한 배열을 브로드캐스트합니다. |
버킷화 | '경계'를 기준으로 '입력'을 버킷화합니다. |
CSRSparseMatrixComponents <T> | 배치 '인덱스'에서 CSR 구성 요소를 읽습니다. |
CSRSparseMatrixToDense <T> | (아마도 일괄 처리된) CSRSparseMatrix를 고밀도로 변환합니다. |
CSRSparseMatrixToSparseTensor <T> | (아마도 일괄 처리된) CSRSparesMatrix를 SparseTensor로 변환합니다. |
CSV데이터세트 | |
CSV데이터세트V2 | |
CTCLossV2 | 각 배치 항목에 대한 CTC 손실(로그 확률)을 계산합니다. |
캐시데이터세트V2 | |
CheckNumericsV2 <T는 숫자를 확장합니다> | NaN, -Inf 및 +Inf 값에 대한 텐서를 확인합니다. |
가장 빠른 데이터 세트 선택 | |
클립바이값 <T> | 텐서 값을 지정된 최소값과 최대값으로 자릅니다. |
한 부씩 인쇄TPU임베딩메모리 | 모든 호스트의 문자열로 인코딩된 메모리 구성 proto를 병합하는 작업입니다. |
CollectiveAllToAllV2 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 교환합니다. |
CollectiveAllToAllV3 <T는 숫자를 확장합니다> | 동일한 유형과 모양의 여러 텐서를 상호 교환합니다. |
CollectiveAssignGroupV2 | 그룹 할당에 따라 그룹 키를 할당합니다. |
CollectiveBcastRecvV2 <U> | 다른 장치에서 브로드캐스트된 텐서 값을 수신합니다. |
CollectiveBcastSendV2 <T> | 하나 이상의 다른 장치에 텐서 값을 브로드캐스트합니다. |
CollectiveGather <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축적합니다. |
CollectiveGatherV2 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축적합니다. |
집단초기화커뮤니케이터 | 집단 작업을 위해 그룹을 초기화합니다. |
CollectivePermute <T> | 복제된 TPU 인스턴스 전체에서 텐서를 순열하는 작업입니다. |
CollectiveReduceScatterV2 <T 확장 숫자> | 동일한 유형과 모양의 여러 텐서를 상호 축소하고 결과를 분산시킵니다. |
CollectiveReduceV2 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축소합니다. |
CollectiveReduceV3 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축소합니다. |
CombinedNonMaxSuppression | 점수의 내림차순으로 경계 상자의 하위 집합을 탐욕스럽게 선택합니다. 이 작업은 모든 클래스에서 배치당 입력에 대해 non_max_suppression을 수행합니다. |
CompositeTensorVariantFromComponents | 'ExtensionType' 값을 'variant' 스칼라 텐서로 인코딩합니다. |
CompositeTensorVariantToComponents | 'variant' 스칼라 Tensor를 'ExtensionType' 값으로 디코딩합니다. |
요소 압축 | 데이터 세트 요소를 압축합니다. |
ComputeBatchSize | 부분 배치가 없는 데이터 세트의 정적 배치 크기를 계산합니다. |
ComputeDedupDataTupleMask | 연산은 임베딩 코어에서 중복 제거 데이터의 튜플 마스크를 계산합니다. |
연결 <T> | 한 차원을 따라 텐서를 연결합니다. |
구성및초기화GlobalTPU | 분산 TPU 시스템의 중앙 집중식 구조를 설정하는 작업입니다. |
분산TPU 구성 | 분산 TPU 시스템의 중앙 집중식 구조를 설정합니다. |
TPU임베딩 구성 | 분산 TPU 시스템에서 TPUEmbedding을 설정합니다. |
TPUEmbeddingHost 구성 | 호스트에서 TPUEmbedding 소프트웨어를 구성하는 작업입니다. |
TPU임베딩메모리 구성 | 호스트에서 TPUEmbedding 소프트웨어를 구성하는 작업입니다. |
ConnectTPUE임베딩호스트 | TPUEmbedding 호스트 소프트웨어 인스턴스 간의 통신을 설정하는 작업 각 호스트에서 ConfigureTPUEmbeddingHost가 호출된 후. |
상수 <T> | 상수 값을 생성하는 연산자입니다. |
소비MutexLock | 이 작업은 `MutexLock`에 의해 생성된 잠금을 사용합니다. |
제어트리거 | 아무것도 하지 않습니다. |
전환 <T 확장 숫자> | (N+1+batch_dims)-D `input` 및 (N+2)-D `filter` 텐서를 사용하여 ND 컨볼루션을 계산합니다. |
Conv2DBackpropFilterV2 <T는 숫자를 확장합니다> | 필터에 대한 컨볼루션의 기울기를 계산합니다. |
Conv2DBackpropInputV2 <T 확장 번호> | 입력에 대한 컨볼루션의 기울기를 계산합니다. |
복사 <T> | CPU에서 CPU로 또는 GPU에서 GPU로 텐서를 복사합니다. |
카피호스트 <T> | 텐서를 호스트에 복사합니다. |
메시에 복사 <T> | |
CopyToMeshGrad <T> | |
CountUpTo <T는 숫자를 확장합니다> | 'limit'에 도달할 때까지 'ref'를 증가시킵니다. |
CrossReplicaSum <T 확장 번호> | 복제된 TPU 인스턴스 전체에서 입력을 합산하는 작업입니다. |
CudnnRNNBackpropV3 <T 확장 번호> | CudnnRNNV3의 역전파 단계. |
CudnnRNNCanonicalToParamsV2 <T는 숫자를 확장합니다> | CudnnRNN 매개변수를 표준 형식에서 사용 가능한 형식으로 변환합니다. |
CudnnRNNParamsToCanonicalV2 <T는 숫자를 확장합니다> | 표준 형식으로 CudnnRNN 매개변수를 검색합니다. |
CudnnRNNV3 <T 확장 번호> | cuDNN이 지원하는 RNN입니다. |
CumulativeLogsumexp <T 확장 숫자> | '축'을 따라 텐서 'x'의 누적 곱을 계산합니다. |
DTensorRestoreV2 | |
DTensorSetGlobalTPUArray | 시스템에 있는 모든 TPU의 전역 ID를 호스트에 알리는 작업입니다. |
DataService데이터 세트 | tf.data 서비스에서 데이터를 읽는 데이터 세트를 생성합니다. |
DataServiceDatasetV2 | tf.data 서비스에서 데이터를 읽는 데이터 세트를 생성합니다. |
데이터 세트 카디널리티 | `input_dataset`의 카디널리티를 반환합니다. |
데이터세트FromGraph | 주어진 `graph_def`에서 데이터세트를 생성합니다. |
DatasetToGraphV2 | 'input_dataset'을 나타내는 직렬화된 GraphDef를 반환합니다. |
Dawsn <T 확장 번호> | |
DebugGradientIdentity <T> | 그래디언트 디버깅을 위한 ID 작업입니다. |
DebugGradientRefIdentity <T> | 그래디언트 디버깅을 위한 ID 작업입니다. |
디버그 ID <T> | 디버깅을 위해 Ref가 아닌 유형 입력 텐서의 ID 매핑을 제공합니다. |
DebugIdentityV2 <T> | 디버그 ID V2 Op. |
DebugIdentityV3 <T> | 디버깅을 위해 Ref가 아닌 유형 입력 텐서의 ID 매핑을 제공합니다. |
DebugNanCount | NaN 값 카운터 Op. 디버그 |
디버그숫자요약 | 디버그 수치 요약 Op. |
DebugNumericSummaryV2 <U 확장 번호> | 디버그 수치 요약 V2 Op. |
DecodeImage <T는 숫자를 확장합니다> | decode_bmp, decode_gif, decode_jpeg 및 decode_png에 대한 함수입니다. |
DecodePaddedRaw <T는 숫자를 확장합니다> | 문자열의 바이트를 숫자 벡터로 재해석합니다. |
디코드프로토 | 연산은 직렬화된 프로토콜 버퍼 메시지의 필드를 텐서로 추출합니다. |
딥카피 <T> | `x`의 복사본을 만듭니다. |
삭제반복자 | 반복자 리소스의 컨테이너입니다. |
메모리캐시 삭제 | |
다중 장치 반복자 삭제 | 반복자 리소스의 컨테이너입니다. |
삭제RandomSeedGenerator | |
삭제시드 생성기 | |
삭제세션텐서 | 세션의 핸들로 지정된 텐서를 삭제합니다. |
DenseBincount <U 확장 숫자> | 정수 배열에서 각 값의 발생 횟수를 셉니다. |
DenseCountSparseOutput <U 확장 숫자> | tf.tensor 입력에 대해 희소 출력 Bin 계산을 수행합니다. |
DenseToCSRSparseMatrix | 조밀한 텐서를 (아마도 일괄 처리된) CSRSparseMatrix로 변환합니다. |
DestroyResourceOp | 핸들에 지정된 리소스를 삭제합니다. |
DestroyTemporary변수 <T> | 임시 변수를 삭제하고 최종 값을 반환합니다. |
DeviceIndex | 작업이 실행되는 장치의 인덱스를 반환합니다. |
DirectedInterleave데이터세트 | 'N' 데이터 세트의 고정 목록에서 'InterleaveDataset'을 대체합니다. |
비활성화CopyOnRead | 읽기 시 복사 모드를 끕니다. |
분산저장 | |
DrawBoundingBoxesV2 <T는 숫자를 확장합니다> | 이미지 배치에 경계 상자를 그립니다. |
더미반복카운터 | |
더미메모리캐시 | |
더미 시드 생성기 | |
DynamicEnqueueTPUEmbeddingArbitraryTensorBatch | tf.nn.embedding_lookup_sparse()를 사용하는 코드 포팅을 쉽게 합니다. |
DynamicEnqueueTPUEmbeddingRaggedTensorBatch | |
동적파티션 <T> | `파티션`의 인덱스를 사용하여 `데이터`를 `num_partitions` 텐서로 분할합니다. |
다이나믹스티치 <T> | '데이터' 텐서의 값을 단일 텐서에 인터리브합니다. |
편집거리 | (정규화된) Levenshtein Edit Distance를 계산합니다. |
에이그 <U> | 하나 이상의 정사각 행렬의 고유 분해를 계산합니다. |
아인섬 <T> | 아인슈타인 합산 규칙에 따른 텐서 수축. |
비어 있음 <T> | 주어진 모양으로 텐서를 생성합니다. |
비어있는TensorList | 빈 텐서 목록을 생성하고 반환합니다. |
비어있음TensorMap | 빈 텐서 맵을 생성하고 반환합니다. |
EncodeProto | op는 입력 텐서에 제공된 protobuf 메시지를 직렬화합니다. |
EnqueueTPU임베딩임의TensorBatch | tf.nn.embedding_lookup_sparse()를 사용하는 코드 포팅을 쉽게 합니다. |
EnqueueTPUEmbeddingBatch | 입력 배치 텐서 목록을 TPUEmbedding에 추가하는 작업입니다. |
EnqueueTPUEmbeddingIntegerBatch | 입력 배치 텐서 목록을 TPUEmbedding에 추가하는 작업입니다. |
EnqueueTPUEmbeddingRaggedTensorBatch | tf.nn.embedding_lookup()을 사용하는 코드 포팅을 쉽게 합니다. |
EnqueueTPUEmbeddingSparseBatch | SparseTensor에서 TPUEmbedding 입력 인덱스를 대기열에 추가하는 작업입니다. |
EnqueueTPUEmbeddingSparseTensorBatch | tf.nn.embedding_lookup_sparse()를 사용하는 코드 포팅을 쉽게 합니다. |
형태 보장 <T> | 텐서의 모양이 예상되는 모양과 일치하는지 확인합니다. |
<T>를 입력하세요 | 하위 프레임을 만들거나 찾고 하위 프레임에서 '데이터'를 사용할 수 있도록 합니다. |
Erfinv <T 확장 번호> | |
유클리드표준 <T> | 텐서의 차원 전체에 걸쳐 요소의 유클리드 노름을 계산합니다. |
TPUEmbeddingPartitioner 실행 | 중앙 구성에서 TPUEmbedding 파티셔너를 실행하는 작업 TPUEmbedding 작업에 필요한 HBM 크기(바이트)를 계산합니다. |
종료 <T> | 현재 프레임을 상위 프레임으로 종료합니다. |
ExpandDim <T> | 텐서의 모양에 1차원을 삽입합니다. |
ExperimentalAutoShard데이터 세트 | 입력 데이터 세트를 샤딩하는 데이터 세트를 생성합니다. |
ExperimentalBytesProducedStatsDataset | StatsAggregator에 있는 'input_dataset'의 각 요소의 바이트 크기를 기록합니다. |
실험적ChooseFastestDataset | |
실험적데이터세트카디널리티 | `input_dataset`의 카디널리티를 반환합니다. |
ExperimentalDatasetToTFRecord | TFRecord 형식을 사용하여 지정된 파일에 지정된 데이터세트를 씁니다. |
ExperimentalDenseToSparseBatchDataset | 입력 요소를 SparseTensor로 일괄 처리하는 데이터 세트를 생성합니다. |
실험적 지연 시간 통계 데이터 세트 | StatsAggregator에서 'input_dataset' 요소를 생성하는 지연 시간을 기록합니다. |
ExperimentalMatchingFiles데이터 세트 | |
ExperimentalMaxIntraOpParallelismDataset | 최대 작업 내 병렬 처리를 재정의하는 데이터 세트를 만듭니다. |
ExperimentalParseExampleDataset | DT_STRING의 벡터인 'Example' 프로토를 포함하는 'input_dataset'를 구문 분석된 기능을 나타내는 'Tensor' 또는 'SparseTensor' 개체의 데이터세트로 변환합니다. |
ExperimentalPrivateThreadPoolDataset | 'input_dataset'을 계산하기 위해 커스텀 스레드 풀을 사용하는 데이터세트를 생성합니다. |
실험적 무작위 데이터세트 | 의사 난수를 반환하는 데이터 세트를 만듭니다. |
ExperimentalRebatch데이터 세트 | 배치 크기를 변경하는 데이터세트를 만듭니다. |
ExperimentalSetStatsAggregatorDataset | |
ExperimentalSlidingWindowDataset | `input_dataset`에 대한 슬라이딩 윈도우를 전달하는 데이터세트를 생성합니다. |
ExperimentalSqlDataset | SQL 쿼리를 실행하고 결과 집합의 행을 내보내는 데이터 집합을 만듭니다. |
ExperimentalStatsAggregatorHandle | 통계 관리자 리소스를 생성합니다. |
ExperimentalStatsAggregator요약 | 지정된 통계 관리자가 기록한 모든 통계의 요약을 생성합니다. |
ExperimentalUnbatchDataset | 입력 요소를 여러 요소로 분할하는 데이터세트입니다. |
Expint <T는 숫자를 확장합니다> | |
ExtractGlimpseV2 | 입력 텐서에서 엿볼 수 있는 내용을 추출합니다. |
ExtractVolumePatches <T 확장 번호> | `입력`에서 `패치`를 추출하여 `"깊이"` 출력 차원에 넣습니다. |
FFTND <T> | ND 고속 푸리에 변환. |
파일시스템 세트 구성 | 파일 시스템의 구성을 설정합니다. |
채우기 <U> | 스칼라 값으로 채워진 텐서를 생성합니다. |
FinalizeDataset | 'input_dataset'에 tf.data.Options 적용하여 데이터세트를 생성합니다. |
TPU임베딩 마무리 | TPUEmbedding 구성을 마무리하는 작업입니다. |
지문 | 지문 값을 생성합니다. |
FresnelCos <T 확장 번호> | |
FresnelSin <T는 숫자를 확장함> | |
FusedBatchNormGradV3 <T는 숫자 확장, U는 숫자 확장> | 일괄 정규화를 위한 기울기입니다. |
FusedBatchNormV3 <T는 숫자 확장, U는 숫자 확장> | 일괄 정규화. |
GRUBlockCell <T는 숫자를 확장합니다> | 1시간 단계에 대한 GRU 셀 순방향 전파를 계산합니다. |
GRUBlockCellGrad <T는 숫자를 확장합니다> | 1시간 단계에 대한 GRU 셀 역전파를 계산합니다. |
모아 <T> | `indices`에 따라 `params` 축 `axis`에서 슬라이스를 수집합니다. |
집결 <T> | `params`의 조각을 `indices`로 지정된 모양의 Tensor로 수집합니다. |
BoundingBoxProposals 생성 | 이 작업은 arXiv:1506.01497의 eq.2에 따라 주어진 경계 상자(bbox_deltas)로 인코딩된 wrt 앵커로부터 관심 영역을 생성합니다. op는 상위 `pre_nms_topn` 점수 상자를 선택하고 앵커와 관련하여 디코딩하며 `nms_threshold` 교차-결합(iou) 값보다 높은 중첩 상자에 최대 비최대 억제를 적용하고 짧은 변이 `보다 작은 상자를 삭제합니다. 최소_크기`. |
GetElementAtIndex | 데이터세트의 지정된 인덱스에 있는 요소를 가져옵니다. |
GetOptions | `input_dataset`에 연결된 tf.data.Options 반환합니다. |
세션 핸들 가져오기 | 입력 텐서를 현재 세션 상태로 저장합니다. |
GetSessionTensor <T> | 핸들로 지정된 텐서의 값을 가져옵니다. |
그라데이션 | y s wrt x s의 합의 편도함수를 계산하는 연산을 추가합니다. 즉, d(y_1 + y_2 + ...)/dx_1, d(y_1 + y_2 + ...)/dx_2... Options.dx() 값이 설정되면 일부 손실 함수 L wrt의 초기 기호 편도함수와 같습니다. |
보증 상수 <T> | 입력 텐서가 상수임을 TF 런타임에 보장합니다. |
해시테이블 | 초기화되지 않은 해시 테이블을 생성합니다. |
HistogramFixedWidth <U 확장 숫자> | 값의 히스토그램을 반환합니다. |
IFFTND <T> | ND 역고속 푸리에 변환. |
IRFFTND <U 확장 번호> | ND 역실질고속 푸리에 변환. |
신원 <T> | 입력 텐서 또는 값과 모양과 내용이 동일한 텐서를 반환합니다. |
아이덴티티N | 입력과 모양 및 내용이 동일한 텐서 목록을 반환합니다. 텐서. |
오류 무시데이터 세트 | 오류를 무시하고 'input_dataset' 요소가 포함된 데이터세트를 생성합니다. |
ImageProjectiveTransformV2 <T는 숫자를 확장합니다> | 주어진 변환을 각 이미지에 적용합니다. |
ImageProjectiveTransformV3 <T는 숫자를 확장합니다> | 주어진 변환을 각 이미지에 적용합니다. |
ImmutableConst <T> | 메모리 영역에서 불변 텐서를 반환합니다. |
인피드큐 제거 <T> | 계산에 입력될 값에 대한 자리 표시자 작업입니다. |
InfeedDequeueTuple | 인피드에서 XLA 튜플로 여러 값을 가져옵니다. |
인피드인큐 | 단일 Tensor 값을 계산에 제공하는 연산입니다. |
InfeedEnqueuePrelinearizedBuffer | 사전 선형화된 버퍼를 TPU 인피드에 추가하는 작업입니다. |
InfeedEnqueueTuple | 여러 Tensor 값을 XLA 튜플로 계산에 입력합니다. |
테이블 초기화 | 키와 값에 각각 두 개의 텐서를 사용하는 테이블 초기화 프로그램입니다. |
TableFromDataset 초기화 | |
TableFromTextFile 초기화 | 텍스트 파일에서 테이블을 초기화합니다. |
내부추가 <T> | x의 지정된 행에 v를 추가합니다. |
InplaceSub <T> | 'x'의 지정된 행에서 'v'를 뺍니다. |
인플레이스업데이트 <T> | 지정된 행 'i'를 값 'v'로 업데이트합니다. |
IsBoostedTreesEnsembleInitialized | 트리 앙상블이 초기화되었는지 확인합니다. |
IsBoostedTreesQuantileStreamResourceInitialized | Quantile 스트림이 초기화되었는지 확인합니다. |
TPUEmbedding초기화됨 | 분산 TPU 시스템에서 TPU 임베딩이 초기화되는지 여부입니다. |
변수가 초기화됨 | 텐서가 초기화되었는지 확인합니다. |
IsotonicRegression <U 확장 숫자> | 일련의 등장성 회귀 문제를 해결합니다. |
IteratorGetDevice | `리소스`가 배치된 장치의 이름을 반환합니다. |
KMC2Chain초기화 | 시드 세트에 추가되어야 하는 데이터 포인트의 인덱스를 반환합니다. |
KmeansPlusPlus초기화 | KMeans++ 기준을 사용하여 num_to_sample개의 입력 행을 선택합니다. |
KthOrder통계 | 데이터 세트의 K차 통계를 계산합니다. |
LMDB데이터세트 | 하나 이상의 LMDB 파일에 키-값 쌍을 내보내는 데이터 세트를 생성합니다. |
LSTMBlockCell <T는 숫자를 확장합니다> | 1시간 단계에 대한 LSTM 셀의 순방향 전파를 계산합니다. |
LSTMBlockCellGrad <T는 숫자를 확장합니다> | 1 시간 단계에 대한 LSTM 셀 역전파를 계산합니다. |
LinSpace <T는 숫자를 확장합니다> | 일정 간격으로 값을 생성합니다. |
목록데이터세트 | 각 '텐서'를 한 번씩 내보내는 데이터세트를 만듭니다. |
LoadAllTPUEmbedding매개변수 | 내장 메모리에 최적화 매개변수를 로드하는 연산입니다. |
TPU임베딩ADAM매개변수 로드 | ADAM 포함 매개변수를 로드합니다. |
LoadTPUEmbeddingAdadelta매개변수 | Adadelta 임베딩 매개변수를 로드합니다. |
LoadTPUE임베딩AdagradMomentum매개변수 | Adagrad Momentum 임베딩 매개변수를 로드합니다. |
LoadTPUE임베딩Adagrad매개변수 | Adagrad 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingCenteredRMSProp매개변수 | 로드 중심 RMSProp 임베딩 매개변수입니다. |
LoadTPUEmbeddingFTRL매개변수 | FTRL 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingFrequencyEstimator매개변수 | 부하 주파수 추정기 임베딩 매개변수. |
LoadTPUEmbeddingMDLadagradLight매개변수 | MDL Adagrad Light 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingMomentum매개변수 | Momentum 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingProximalAdagrad매개변수 | 근위 Adagrad 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingProximalYogi매개변수 | |
LoadTPUEmbeddingRMSProp매개변수 | RMSProp 임베딩 매개변수를 로드합니다. |
LoadTPUE임베딩확률적 경사하강 매개변수 | SGD 내장 매개변수를 로드합니다. |
LookupTableExport <T, U> | 테이블의 모든 키와 값을 출력합니다. |
조회테이블찾기 <U> | 테이블에서 키를 조회하고 해당 값을 출력합니다. |
조회테이블가져오기 | 테이블의 내용을 지정된 키와 값으로 바꿉니다. |
조회테이블삽입 | 키를 값과 연결하도록 테이블을 업데이트합니다. |
조회테이블제거 | 테이블에서 키와 관련 값을 제거합니다. |
조회테이블크기 | 주어진 테이블의 요소 수를 계산합니다. |
LoopCond | 입력을 출력으로 전달합니다. |
LowerBound <U 확장 번호> | 각 행을 따라 lower_bound(sorted_search_values,values)를 적용합니다. |
Lu <T, U 확장 숫자> | 하나 이상의 정사각 행렬의 LU 분해를 계산합니다. |
고유하게 만들기 | 배치가 아닌 차원의 모든 요소를 고유하게 만드십시오. 단, 다음과 \"가까운\" 초기값. |
지도지우기 | Op는 기본 컨테이너의 모든 요소를 제거합니다. |
지도불완전한 크기 | Op는 기본 컨테이너의 불완전한 요소 수를 반환합니다. |
지도Peek | Op는 지정된 키의 값을 엿봅니다. |
지도 크기 | Op는 기본 컨테이너의 요소 수를 반환합니다. |
맵스테이지 | 해시테이블처럼 작동하는 기본 컨테이너의 스테이지(키, 값)입니다. |
지도Unstage | Op는 키와 관련된 값을 제거하고 반환합니다. 기본 컨테이너에서. |
지도UnstageNoKey | Op는 임의의 (키, 값)을 제거하고 반환합니다. 기본 컨테이너에서. |
MatrixDiagPartV2 <T> | 배치 텐서의 배치 대각선 부분을 반환합니다. |
MatrixDiagPartV3 <T> | 배치 텐서의 배치 대각선 부분을 반환합니다. |
MatrixDiagV2 <T> | 주어진 배치 대각선 값을 갖는 배치 대각선 텐서를 반환합니다. |
MatrixDiagV3 <T> | 주어진 배치 대각선 값을 갖는 배치 대각선 텐서를 반환합니다. |
MatrixSetDiagV2 <T> | 새로운 배치 대각선 값을 갖는 배치 행렬 텐서를 반환합니다. |
MatrixSetDiagV3 <T> | 새로운 배치 대각선 값을 갖는 배치 행렬 텐서를 반환합니다. |
최대 <T> | 텐서의 차원 전체에서 요소의 최대값을 계산합니다. |
MaxIntraOpParallelismDataset | 최대 작업 내 병렬 처리를 재정의하는 데이터 세트를 만듭니다. |
<T> 병합 | 사용 가능한 텐서의 값을 `inputs`에서 `output`으로 전달합니다. |
데이터 중복 제거 병합 | 작업은 정수 및 부동 소수점 텐서의 요소를 XLA 튜플로 중복 제거 데이터에 병합합니다. |
최소 <T> | 텐서의 차원 전체에서 최소 요소를 계산합니다. |
미러패드 <T> | 미러링된 값으로 텐서를 채웁니다. |
MirrorPadGrad <T> | 'MirrorPad'에 대한 그라데이션 작업입니다. |
MlirPassthroughOp | main() 함수를 사용하여 모듈로 표현된 임의의 MLIR 계산을 래핑합니다. |
물노난 <T> | x * y 요소별로 반환합니다. |
가변밀도해시테이블 | 텐서를 백업 저장소로 사용하는 빈 해시 테이블을 만듭니다. |
가변해시테이블 | 빈 해시 테이블을 생성합니다. |
MutableHashTableOfTensors | 빈 해시 테이블을 생성합니다. |
뮤텍스 | 'MutexLock'으로 잠글 수 있는 Mutex 리소스를 생성합니다. |
MutexLock | 뮤텍스 리소스를 잠급니다. |
NcclAllReduce <T는 숫자를 확장합니다> | 모든 입력 텐서에 대한 감소를 포함하는 텐서를 출력합니다. |
NcclBroadcast <T는 숫자를 확장합니다> | 출력에 연결된 모든 장치에 '입력'을 보냅니다. |
NcclReduce <T는 숫자를 확장합니다> | 단일 장치에 대한 `reduction`을 사용하여 `num_devices`에서 `input`을 줄입니다. |
Ndtri <T 확장 번호> | |
가장 가까운 이웃 | 각 점에 대해 가장 가까운 k개의 중심을 선택합니다. |
다음 <T 확장 번호> 이후 | 요소별로 `x2` 방향으로 표현 가능한 `x1`의 다음 값을 반환합니다. |
다음반복 <T> | 다음 반복에서 해당 입력을 사용할 수 있도록 합니다. |
작동 안함 | 아무것도 하지 않습니다. |
NonDeterministicInts <U> | 일부 정수를 비결정적으로 생성합니다. |
NonMaxSuppressionV5 <T 확장 숫자> | 점수의 내림차순으로 경계 상자의 하위 집합을 탐욕스럽게 선택합니다. IOU(Intersection-Over-Union)가 높은 상자가 이전에 선택한 상자와 겹치는 부분을 제거합니다. |
직렬화 가능하지 않은 데이터세트 | |
원핫 <U> | 원-핫 텐서를 반환합니다. |
좋아하는 것 <T> | x와 모양과 유형이 동일한 텐서를 반환합니다. |
OptimizeDatasetV2 | `input_dataset`에 관련 최적화를 적용하여 데이터 세트를 생성합니다. |
옵션데이터세트 | tf.data.Options를 `input_dataset`에 연결하여 데이터 세트를 생성합니다. |
주문됨지도지우기 | Op는 기본 컨테이너의 모든 요소를 제거합니다. |
주문된 지도불완전한 크기 | Op는 기본 컨테이너의 불완전한 요소 수를 반환합니다. |
OrderedMapPeek | Op는 지정된 키의 값을 엿봅니다. |
주문된 지도 크기 | Op는 기본 컨테이너의 요소 수를 반환합니다. |
OrderedMapStage | 순서가 지정된 것처럼 동작하는 기본 컨테이너의 단계(키, 값) 연관 컨테이너. |
OrderedMapUnstage | Op는 키와 관련된 값을 제거하고 반환합니다. 기본 컨테이너에서. |
OrderedMapUnstageNoKey | Op는 가장 작은 (키, 값) 요소를 제거하고 반환합니다. 기본 컨테이너의 키입니다. |
아웃피드큐 제거 <T> | 계산 아웃피드에서 단일 텐서를 검색합니다. |
OutfeedDequeueTuple | 계산 아웃피드에서 여러 값을 검색합니다. |
OutfeedDequeueTupleV2 | 계산 아웃피드에서 여러 값을 검색합니다. |
OutfeedDequeueV2 <T> | 계산 아웃피드에서 단일 텐서를 검색합니다. |
아웃피드인큐 | 계산 아웃피드에 Tensor를 추가합니다. |
OutfeedEnqueueTuple | 계산 아웃피드에 여러 Tensor 값을 대기열에 넣습니다. |
패드 <T> | 텐서를 채웁니다. |
병렬배치데이터세트 | |
ParallelConcat <T> | 첫 번째 차원을 따라 'N' 텐서 목록을 연결합니다. |
병렬동적스티치 <T> | '데이터' 텐서의 값을 단일 텐서에 인터리브합니다. |
ParseExampleDatasetV2 | DT_STRING의 벡터인 'Example' 프로토를 포함하는 'input_dataset'를 구문 분석된 기능을 나타내는 'Tensor' 또는 'SparseTensor' 개체의 데이터세트로 변환합니다. |
구문 분석ExampleV2 | tf.Example proto의 벡터(문자열)를 형식화된 텐서로 변환합니다. |
ParseSequenceExampleV2 | tf.io.SequenceExample proto의 벡터(문자열)를 형식화된 텐서로 변환합니다. |
자리 표시자 <T> | 계산에 입력될 값에 대한 자리 표시자 작업입니다. |
PlaceholderWithDefault <T> | 출력이 제공되지 않을 때 '입력'을 통과하는 자리 표시자 작업입니다. |
사전선형화 | 하나의 Tensor 값을 불투명한 변형 텐서로 선형화하는 작업입니다. |
사전선형화Tuple | 여러 Tensor 값을 불투명한 변형 텐서로 선형화하는 작업입니다. |
프리미티브Op | 단일 Operation 에 의해 지원되는 Op 구현을 위한 기본 클래스입니다. |
인쇄 | 문자열 스칼라를 인쇄합니다. |
PrivateThreadPoolDataset | 'input_dataset'을 계산하기 위해 커스텀 스레드 풀을 사용하는 데이터세트를 생성합니다. |
프로덕션 <T> | 텐서의 차원에 걸쳐 요소의 곱을 계산합니다. |
QuantizeAndDeQuantizeV4 <T는 숫자를 확장합니다> | 텐서를 양자화한 다음 역양자화합니다. |
QuantizeAndDeQuantizeV4Grad <T는 숫자를 확장합니다> | `QuantizeAndDeQuantizeV4`의 기울기를 반환합니다. |
QuantizedConcat <T> | 한 차원을 따라 양자화된 텐서를 연결합니다. |
QuantizedConcatV2 <T> | |
QuantizedConv2DAndRelu <V> | |
QuantizedConv2DAndReluAndReQuantize <V> | |
QuantizedConv2DAndReQuantize <V> | |
QuantizedConv2DPerChannel <V> | 채널당 QuantizedConv2D를 계산합니다. |
QuantizedConv2DWithBias <V> | |
QuantizedConv2DWithBiasAndRelu <V> | |
QuantizedConv2DWithBiasAndReluAndReQuantize <W> | |
QuantizedConv2DWithBiasAndReQuantize <W> | |
QuantizedConv2DWithBiasSignedSumAndReluAndReQuantize <X> | |
QuantizedConv2DWithBiasSumAndRelu <V> | |
QuantizedConv2DWithBiasSumAndReluAndReQuantize <X> | |
QuantizedDepthwiseConv2D <V> | 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBias <V> | 바이어스를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBiasAndRelu <V> | Bias 및 Relu를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBiasAndReluAndReQuantize <W> | Bias, Relu 및 ReQuantize를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedMatMulWithBias <W> | 바이어스 덧셈을 사용하여 'a'와 행렬 'b'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndDeQuantize <W 확장 숫자> | |
QuantizedMatMulWithBiasAndRelu <V> | 바이어스 덧셈과 relu 융합을 사용하여 행렬 'b'로 'a'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndReluAndReQuantize <W> | 바이어스 덧셈과 relu 및 재양자화 융합을 사용하여 행렬 'b'로 'a'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndReQuantize <W> | |
양자화Reshape <T> | Reshape 작업에 따라 양자화된 텐서를 재구성합니다. |
RFFTND <U> | ND 고속 실제 푸리에 변환. |
RaggedBincount <U 확장 번호> | 정수 배열에서 각 값의 발생 횟수를 셉니다. |
RaggedCountSparseOutput <U 확장 숫자> | 비정형 텐서 입력에 대해 희소 출력 Bin 계산을 수행합니다. |
RaggedCross <T, U 확장 숫자> | 텐서 목록에서 특성 교차를 생성하고 이를 RaggedTensor로 반환합니다. |
RaggedFillEmptyRows <T> | |
RaggedFillEmptyRowsGrad <T> | |
RaggedGather <T는 Number, U를 확장합니다> | `indices`에 따라 `params` 축 `0`에서 비정형 슬라이스를 수집합니다. |
RaggedRange <U는 숫자 확장, T는 숫자 확장> | 지정된 숫자 시퀀스를 포함하는 'RaggedTensor'를 반환합니다. |
RaggedTensorFromVariant <U 확장 번호, T> | '변형' Tensor를 'RaggedTensor'로 디코딩합니다. |
RaggedTensorToSparse <U> | `RaggedTensor`를 동일한 값을 가진 `SparseTensor`로 변환합니다. |
비정형TensorToTensor <U> | 비정형 텐서에서 조밀한 텐서를 생성하여 모양을 변경할 수 있습니다. |
비정형TensorToVariant | 'RaggedTensor'를 'variant' Tensor로 인코딩합니다. |
RaggedTensorToVariantGradient <U> | `RaggedTensorToVariant`에 대한 그래디언트를 계산하는 데 사용되는 도우미입니다. |
RandomDatasetV2 | 의사 난수를 반환하는 데이터 세트를 만듭니다. |
RandomIndexShuffle <T는 숫자를 확장합니다> | [0, ..., max_index] 순열에서 '값'의 위치를 출력합니다. |
범위 <T는 숫자를 확장합니다> | 일련의 숫자를 생성합니다. |
계급 | 텐서의 순위를 반환합니다. |
ReadVariableOp <T> | 변수의 값을 읽습니다. |
ReadVariableXlaSplitND <T> | 모든 차원에 걸쳐 리소스 변수 입력 텐서를 분할합니다. |
Rebatch데이터세트 | 배치 크기를 변경하는 데이터세트를 만듭니다. |
RebatchDatasetV2 | 배치 크기를 변경하는 데이터세트를 만듭니다. |
수신 <T> | Recv_device의 send_device로부터 명명된 텐서를 받습니다. |
RecvTPUE임베딩 활성화 | TPU에서 임베딩 활성화를 수신하는 작업입니다. |
모두 줄이기 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 및"를 계산합니다. |
모두 감소 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 or"를 계산합니다. |
최대 감소 <T> | 텐서의 차원 전체에서 요소의 최대값을 계산합니다. |
최소 감소 <T> | 텐서의 차원 전체에서 최소 요소를 계산합니다. |
감소생산 <T> | 텐서의 차원에 걸쳐 요소의 곱을 계산합니다. |
합계 감소 <T> | 텐서의 차원 전체에 걸쳐 요소의 합을 계산합니다. |
참조입력 <T> | 하위 프레임을 만들거나 찾고 하위 프레임에서 '데이터'를 사용할 수 있도록 합니다. |
RefExit <T> | 현재 프레임을 상위 프레임으로 종료합니다. |
참조 ID <T> | 입력 참조 텐서와 동일한 참조 텐서를 반환합니다. |
참조병합 <T> | 사용 가능한 텐서의 값을 `inputs`에서 `output`으로 전달합니다. |
RefNext반복 <T> | 다음 반복에서 입력을 사용할 수 있도록 합니다. |
참조선택 <T> | `inputs`의 `index` 번째 요소를 `output`으로 전달합니다. |
참조 스위치 <T> | 참조 텐서 'data'를 'pred'에 의해 결정된 출력 포트로 전달합니다. |
데이터세트 등록 | tf.data 서비스에 데이터 세트를 등록합니다. |
RegisterDatasetV2 | tf.data 서비스에 데이터 세트를 등록합니다. |
릴레이아웃 <T> | |
릴레이아웃 Like <T> | |
재양자화RangePerChannel | 채널당 재양자화 범위를 계산합니다. |
ReQuantizePerChannel <U> | 채널당 알려진 최소 및 최대 값으로 입력을 다시 양자화합니다. |
모양 변경 <T> | 텐서의 형태를 변경합니다. |
ResourceAccumulatorApplyGradient | 지정된 누산기에 그라데이션을 적용합니다. |
ResourceAccumulatorNumAccumulated | 지정된 누산기에서 집계된 그래디언트 수를 반환합니다. |
ResourceAccumulatorSetGlobalStep | global_step에 대한 새 값으로 누산기를 업데이트합니다. |
ResourceAccumulatorTakeGradient <T> | 주어진 ConditionalAccumulator에서 평균 기울기를 추출합니다. |
리소스ApplyAdagradV2 | adagrad 체계에 따라 '*var'를 업데이트합니다. |
자원ApplyAdamWithAmsgrad | Adam 알고리즘에 따라 '*var'를 업데이트합니다. |
ResourceApplyKeras모멘텀 | 모멘텀 체계에 따라 '*var'를 업데이트합니다. |
자원조건부누산기 | 그라디언트 집계를 위한 조건부 누산기입니다. |
ResourceCountUpTo <T 확장 번호> | 'resource'가 가리키는 변수가 'limit'에 도달할 때까지 증가합니다. |
리소스게더 <U> | `indices`에 따라 `resource`가 가리키는 변수에서 조각을 수집합니다. |
리소스게더Nd <U> | |
자원분산추가 | `resource`가 참조하는 변수에 희소 업데이트를 추가합니다. |
ResourceScatterDiv | 희소 업데이트를 'resource'에서 참조하는 변수로 나눕니다. |
ResourceScatterMax | `max` 작업을 사용하여 `resource`가 참조하는 변수에 대한 희소 업데이트를 줄입니다. |
ResourceScatterMin | 'min' 작업을 사용하여 'resource'가 참조하는 변수에 대한 희소 업데이트를 줄입니다. |
ResourceScatterMul | `resource`가 참조하는 변수에 희소 업데이트를 곱합니다. |
ResourceScatterNdAdd | 변수의 개별 값이나 조각에 희소 추가를 적용합니다. |
자원산란NdMax | |
ResourceScatterNdMin | |
ResourceScatterNdSub | 변수의 개별 값이나 조각에 희소 빼기를 적용합니다. |
ResourceScatterNdUpdate | 특정 값 내의 개별 값이나 조각에 희박한 '업데이트'를 적용합니다. '인덱스'에 따라 변수가 달라집니다. |
ResourceScatterSub | `resource`가 참조하는 변수에서 희소 업데이트를 뺍니다. |
ResourceScatter업데이트 | `resource`가 참조하는 변수에 희소 업데이트를 할당합니다. |
ResourceSparseApplyAdagradV2 | adagrad 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다. |
ResourceSparseApplyKerasMomentum | 모멘텀 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다. |
ResourceStridedSlice할당 | 'ref'의 슬라이스된 l-value 참조에 'value'를 할당합니다. |
모든 TPUEmbedding매개변수 검색 | 호스트 메모리 임베딩에서 최적화 매개변수를 검색하는 작업입니다. |
TPUEmbeddingADAM매개변수 검색 | ADAM 내장 매개변수를 검색합니다. |
TPUEmbeddingAdadelta매개변수 검색 | Adadelta 임베딩 매개변수를 검색합니다. |
TPUEmbeddingAdagradMomentum매개변수 검색 | Adagrad Momentum 임베딩 매개변수를 검색합니다. |
TPUEmbeddingAdagrad매개변수 검색 | Adagrad 임베딩 매개변수를 검색합니다. |
TPUEmbeddingCenteredRMSProp매개변수 검색 | 중앙에 위치한 RMSProp 임베딩 매개변수를 검색합니다. |
TPUEmbeddingFTRL매개변수 검색 | FTRL 임베딩 매개변수를 검색합니다. |
TPUEmbeddingFrequencyEstimatorParameters 검색 | 주파수 추정기 임베딩 매개변수를 검색합니다. |
TPUEmbeddingMDLadagradLight매개변수 검색 | MDL Adagrad Light 임베딩 매개변수를 검색합니다. |
TPUEmbeddingMomentum매개변수 검색 | Momentum 임베딩 매개변수를 검색합니다. |
TPUEmbeddingProximalAdagrad매개변수 검색 | 근위 Adagrad 임베딩 매개변수를 검색합니다. |
TPUEmbeddingProximalYogi매개변수 검색 | |
TPUEmbeddingRMSProp매개변수 검색 | RMSProp 임베딩 매개변수를 검색합니다. |
TPUEmbeddingStochasticGradientDescentParameters 검색 | SGD 내장 매개변수를 검색합니다. |
역방향 <T> | 텐서의 특정 차원을 반대로 바꿉니다. |
역순 <T> | 가변 길이 슬라이스를 반전합니다. |
RewriteDataset | |
RiscAbs <T는 숫자를 확장합니다> | |
RiscAdd <T는 숫자를 확장합니다> | x + y 요소를 반환합니다. |
RiscBinaryArithmetic <T는 숫자를 확장합니다> | |
Risc이진비교 | |
RiscBitcast <U> | |
위험방송 <T> | |
리스캐스트 <U> | |
RiscCeil <T는 숫자를 확장합니다> | |
RiscCholesky <T는 숫자를 확장합니다> | |
RiscConcat <T> | |
RiscConv <T 확장 번호> | |
RiscCos <T 확장 번호> | |
RiscDiv <T는 숫자를 확장합니다> | |
RiscDot <T는 숫자를 확장합니다> | |
RiscExp <T는 숫자를 확장합니다> | |
위험Fft <T> | |
RiscFloor <T는 숫자를 확장합니다> | |
리스크게더 <T> | |
RiscImag <U 확장 번호> | |
RiscIsFinite | |
RiscLog <T 확장 번호> | |
위험논리적그리고 | |
위험논리적 아님 | |
위험논리적또는 | |
RiscMax <T는 숫자를 확장합니다> | max(x, y) 요소별로 반환합니다. |
RiscMin <T 확장 번호> | |
RiscMul <T는 숫자를 확장합니다> | |
RiscNeg <T는 숫자를 확장합니다> | |
RiscPad <T는 숫자를 확장합니다> | |
RiscPool <T는 숫자를 확장합니다> | |
RiscPow <T는 숫자를 확장합니다> | |
RiscRandomUniform | |
RiscReal <U 확장 숫자> | |
RiscReduce <T는 숫자를 확장합니다> | |
RiscRem <T는 숫자를 확장합니다> | |
RiscReshape <T는 숫자를 확장합니다> | |
RiscReverse <T는 숫자를 확장합니다> | |
RiscScatter <U 확장 번호> | |
RiscShape <U 확장 숫자> | |
RiscSign <T는 숫자를 확장합니다> | |
RiscSlice <T는 숫자를 확장합니다> | |
RiscSort <T는 숫자를 확장함> | |
리스크스퀴즈 <T> | |
RiscSub <T는 숫자를 확장합니다> | |
RiscTranspose <T> | |
RiscTriangularSolve <T는 숫자를 확장합니다> | |
RiscUnary <T는 숫자를 확장합니다> | |
Rng읽기 및 건너뛰기 | 카운터 기반 RNG의 카운터를 향상시킵니다. |
RngSkip | 카운터 기반 RNG의 카운터를 향상시킵니다. |
롤 <T> | 축을 따라 텐서의 요소를 굴립니다. |
샘플링데이터세트 | 다른 데이터세트 콘텐츠의 Bernoulli 샘플을 사용하는 데이터세트를 만듭니다. |
축척 및 번역 | |
ScaleAndTranslateGrad <T는 숫자를 확장합니다> | |
분산추가 <T> | 변수 참조에 희소 업데이트를 추가합니다. |
ScatterDiv <T> | 변수 참조를 희소 업데이트로 나눕니다. |
ScatterMax <T는 숫자를 확장합니다> | 'max' 작업을 사용하여 희소 업데이트를 변수 참조로 줄입니다. |
ScatterMin <T는 숫자를 확장합니다> | 'min' 작업을 사용하여 희소 업데이트를 변수 참조로 줄입니다. |
스캐터뮬 <T> | 희소 업데이트를 변수 참조에 곱합니다. |
분산형 <U> | '인덱스'에 따라 '업데이트'를 모양 'shape'의 텐서로 분산시킵니다. |
분산Nd추가 <T> | 변수의 개별 값이나 조각에 희소 추가를 적용합니다. |
ScatterNdMax <T> | 요소별 최대값을 계산합니다. |
분산NdMin <T> | 요소별 최소값을 계산합니다. |
ScatterNdNonAliasingAdd <T> | 개별 값이나 조각을 사용하여 '입력'에 희소 추가를 적용합니다. 인덱스 `인덱스`에 따른 `업데이트`에서. |
ScatterNdSub <T> | 변수의 개별 값이나 조각에 희소 빼기를 적용합니다. |
ScatterNdUpdate <T> | 특정 값 내의 개별 값이나 조각에 희박한 '업데이트'를 적용합니다. '인덱스'에 따라 변수가 달라집니다. |
ScatterSub <T> | 변수 참조에 대한 희소 업데이트를 뺍니다. |
분산 업데이트 <T> | 변수 참조에 스파스 업데이트를 적용합니다. |
SegmentMaxV2 <T는 숫자를 확장함> | 텐서의 세그먼트를 따라 최대값을 계산합니다. |
SegmentMinV2 <T 확장 번호> | 텐서의 세그먼트를 따라 최소값을 계산합니다. |
SegmentProdV2 <T> | 텐서의 세그먼트를 따라 곱을 계산합니다. |
SegmentSumV2 <T> | 텐서의 세그먼트를 따라 합계를 계산합니다. |
선택V2 <T> | |
보내다 | send_device에서 recv_device로 명명된 텐서를 보냅니다. |
sendtpuembeddinggradients | 임베딩 테이블의 그라디언트 업데이트를 수행합니다. |
setDiff1d <t, u는 숫자>를 확장합니다 | 두 숫자 또는 문자열 목록 간의 차이를 계산합니다. |
setsize | 입력의 마지막 차원을 따라 고유 한 요소의 수. |
모양 <u는 숫자를 확장합니다> | 텐서의 형태를 반환합니다. |
Shapen <u는 숫자를 확장합니다> | 텐서의 모양을 반환합니다. |
샤드 다타 세트 | 이 데이터 세트의 1/`num_shards '만 포함하는'dataset '을 만듭니다. |
ShuffleandrepeatDatasetv2 | |
Shuffledatasetv2 | |
Shuffledatasetv3 | |
셧다운 분배 된tpu | 실행중인 분산 TPU 시스템을 종료합니다. |
셧다운 시스템 | TPU 시스템을 종료하는 OP. |
크기 <U 확장 번호> | 텐서의 크기를 반환합니다. |
건너 뛰기 | 텍스트 파일을 구문 분석하고 예제를 만듭니다. |
수면 | |
슬라이스 <t> | '입력'에서 슬라이스를 반환하십시오. |
슬라이딩 윈도우 다타 세트 | 'input_dataset'을 통해 슬라이딩 창을 전달하는 데이터 세트를 만듭니다. |
스냅 샷 <t> | 입력 텐서의 사본을 반환합니다. |
SnapshotchunkDataset | |
SnapshotDataset | 스냅 샷에 쓰기 / 읽을 데이터 세트를 만듭니다. |
SnapshotDataSetReader | |
SnapshotNestedDatasEtReader | |
SobolSample <t는 숫자를 확장합니다 | 소볼 시퀀스에서 점을 생성합니다. |
spacetobatchnd <t> | T 형의 ND 텐서에 대한 Spacetobatch. |
sparseapplyadagradv2 <t> | Adagrad 체계에 따라 '*var'및 '*accum'에서 관련 항목을 업데이트하십시오. |
sparsebincount <u는 숫자>를 확장합니다 | 정수 배열에서 각 값의 발생 횟수를 셉니다. |
sparsecountsparseoutput <u는 숫자를 확장합니다 | 드문 텐서 입력에 대한 희소 출력 빈 계산을 수행합니다. |
Scrsecrosshashed | 희소하고 조밀 한 텐서 목록에서 드문 크로스를 생성합니다. |
Sparsecrossv2 | 희소하고 조밀 한 텐서 목록에서 드문 크로스를 생성합니다. |
sparsematrixadd | 두 개의 CSR 매트릭스의 드문 첨가, C = alpha * a + 베타 * B. |
sparsematrixmatmul <t> | 매트릭스-다소 틸리 조밀 한 매트릭스가있는 드문 매트릭스. |
sparsematrixmul | 밀도가 높은 텐서로 드문 매트릭스의 원소 별 곱셈. |
sparsematrixnnz | `sparse_matrix`의 비제수 수를 반환합니다. |
sparsematrixorderingamd | '입력'의 대략적인 최소도 (AMD) 순서를 계산합니다. |
sparsematrixsoftmax | CSRSPARSEMATRIX의 SoftMax를 계산합니다. |
sparsematrixsoftmaxgrad | sparsematrixsoftmax op의 그라디언트를 계산합니다. |
sparsematrixsparsecholesky | `입력 '의 희소 한 Cholesky 분해를 계산합니다. |
sparsematrixsparsematmul | 드문 매트릭스-다소 클리 2 개의 CSR 매트릭스`a`와`b`. |
sparsematrixtranspose | CSRSPARSEMATRIX의 내부 (매트릭스) 치수를 전송합니다. |
sparsematrixzeros | ``dense_shape '도 모양의 all-zeros csrsparsematrix를 만듭니다. |
sparsesegmentmeangradv2 <t 연장 번호, u는 숫자를 확장합니다. | sparsesegmentmean을위한 그라디언트를 계산합니다. |
sparsesegmentsqrtngradv2 <t 연장 번호, u는 숫자를 확장합니다. | SparseSegmentsqrtn에 대한 그라디언트를 계산합니다. |
sparsesegmentsumgrad <t는 숫자>를 확장합니다 | sparsesegmentsum에 대한 그라디언트를 계산합니다. |
sparsesegmentsumgradv2 <t 연장 번호, U 확장 번호> | sparsesegmentsum에 대한 그라디언트를 계산합니다. |
sparsetensortocsrsparsematrix | sparsetensor를 CSRSPARSEMATRIX로 변환합니다. |
Spence <t는 숫자를 확장합니다 | |
분할 <t> | 텐서를 1 차원을 따라`num_split '텐서로 나눕니다. |
splitdedupdata <t 연장 번호, u는 숫자를 확장합니다> | OP는 입력 중복 제거 데이터 XLA 튜플을 정수 및 부동 소수점 텐서로 분할합니다. |
splitv <t> | 텐서를 1 차원을 따라`num_split '텐서로 나눕니다. |
스퀴즈 <t> | 텐서 모양에서 크기 1의 치수를 제거합니다. |
스택 <t> | `n` rank-`r` 텐서 목록을 하나의 순위 (r+1)`텐서로 포장합니다. |
단계 | 단계 값은 경량 evqueue와 유사합니다. |
스테이 클리어 | OP는 기본 컨테이너의 모든 요소를 제거합니다. |
Peek | OP는 지정된 인덱스의 값을 살펴 봅니다. |
단계적 | OP는 기본 컨테이너의 요소 수를 반환합니다. |
Statefulrandombinomial <V는 숫자를 연장합니다 | |
Statefulardnormal <u> | 정규 분포에서 임의의 값을 출력합니다. |
Statefulardnormalv2 <u> | 정규 분포에서 임의의 값을 출력합니다. |
State -UncruncatedNormal <u> | 잘린 정규 분포에서 임의 값을 출력합니다. |
StateFulialiform <u> | 균일 분포에서 임의의 값을 출력합니다. |
StateFulialiformullint <u> | 균일 한 분포에서 임의의 정수를 출력합니다. |
StateFulialiformint <u> | 균일 한 분포에서 임의의 정수를 출력합니다. |
InstantelessParameterizedTruncatedNormal <V는 숫자>를 확장합니다 | |
무국적 란 돔 비노 미미 <w는 숫자를 확장합니다 | 이항 분포에서 결정 론적 유사 란덤 랜덤 숫자를 출력합니다. |
SANTESSRANDOMGAMMAV2 <V는 숫자를 확장합니다 | 감마 분포에서 결정 론적 의사 산소 임의 숫자를 출력합니다. |
SANTESSRANDOMGAMMAV3 <U 확장 번호> | 감마 분포에서 결정 론적 의사 산소 임의 숫자를 출력합니다. |
무국적 란 도메 트 | 장치를 기반으로 최고의 카운터 기반 RNG 알고리즘을 선택합니다. |
InstationsRandgetKeyCounter | 장치를 기반으로 한 최고의 알고리즘을 사용하여 시드를 키와 카운터로 스크램블합니다. |
SANTESSRANDOMGETKEYCOUNTERALG | 장치를 기반으로 최상의 알고리즘을 선택하고 시드를 키와 카운터로 스크램블합니다. |
SANTESSRANDOMNORMALV2 <u는 숫자를 확장합니다 | 정규 분포에서 결정 론적 유사 란덤 값을 출력합니다. |
Instantessrandompoisson <w는 숫자를 확장합니다 | 포아송 분포에서 결정 론적 의사 산소 랜덤 숫자를 출력합니다. |
instationsrandomuniformullint <v는 숫자>를 확장합니다 | 출력은 균일 한 분포에서 결정 론적 의사 안드 맨 임의의 정수를 산출합니다. |
instationsrandomuniformullintv2 <u는 숫자>를 확장합니다 | 출력은 균일 한 분포에서 결정 론적 의사 안드 맨 임의의 정수를 산출합니다. |
instationsrandomuniformintv2 <u는 숫자>를 확장합니다 | 출력은 균일 한 분포에서 결정 론적 의사 안드 맨 임의의 정수를 산출합니다. |
SANTESSRANDOMUNIFORV2 <U 확장 번호> | 균일 한 분포에서 결정 론적 유사 란덤 랜덤 값을 출력합니다. |
stantelesssampledistordboundingbox <t 숫자> | 이미지를 결정적으로 무작위로 왜곡 된 경계 박스를 생성합니다. |
무국적 <t> | 무작위로 그리고 결정적으로 1 차원을 따라 텐서를 섞습니다. |
InstanctionTruncatedNormalv2 <u는 숫자를 확장합니다 | 절단 된 정규 분포에서 결정 론적 유사 란덤 값을 출력합니다. |
StatsaggregatorHandlev2 | |
statsaggreatorsetsummarywriter | stats_aggregator를 사용하여 통계를 기록하려면 summary_writer_interface를 설정하십시오. |
stochasticcasttoint <u는 숫자를 확장합니다 | 수레에서 ints까지 주어진 텐서를 확률 적으로 시전합니다. |
Stopgradient <t> | 그라디언트 계산을 중지합니다. |
striddslice <t> | `입력 '에서 뾰족한 슬라이스를 반환하십시오. |
striddsliceassign <t> | 'value'를`ref '의 슬라이스 l- 값 참조에 할당하십시오. |
striddslicegrad <u> | 'striddslice'의 그라디언트를 반환합니다. |
StringLower | 모든 대문자를 각각의 소문자 교체로 변환합니다. |
StringNgrams <t 숫자> | 울퉁불퉁 한 문자열 데이터에서 ngrams를 만듭니다. |
StringUpper | 모든 소문자를 각각의 대문자 교체로 변환합니다. |
합계 <t> | 텐서의 치수에 걸쳐 요소의 합을 계산합니다. |
Switchcond <t> | 'pred'에 의해 결정된 출력 포트로 'data'를 전달합니다. |
syncdevice | 이 OP가 실행되는 장치를 동기화합니다. |
tfrecorddatasetv2 | 하나 이상의 tfrecord 파일에서 레코드를 방출하는 데이터 세트를 만듭니다. |
tpucompilationResult | TPU 컴파일 결과를 반환합니다. |
tpucompilesucceededAssert | 컴파일이 성공했다고 어설션합니다. |
tpuembeddingactivations | TPU 임베딩의 분화를 가능하게하는 OP. |
tpuexecute | TPU 장치에서 TPU 프로그램을로드하고 실행하는 OP. |
tpuexecuteandupdatevariables | 옵션 인 내장 변수 업데이트가있는 프로그램을 실행하는 OP. |
tpuordinalselector | TPU 코어 선택기 OP. |
tpupartitionEdInput <t> | 분할 된 입력 목록을 함께 그룹화하는 OP. |
TPUPARTITIONEDINPUTV2 <T> | 분할 된 입력 목록을 함께 그룹화하는 OP. |
tpupartitionedOutput <t> | XLA에 의해 파티션 된 목록에 샤드를 깎을 텐서를 demultiplexe하는 OP XLA 계산 외부의 출력. |
tpupartitionedOutputv2 <t> | XLA에 의해 파티션 된 목록에 샤드를 깎을 텐서를 demultiplexe하는 OP XLA 계산 외부의 출력. |
TPUREPLICATEMETADATA | TPU 계산을 어떻게 복제 해야하는지를 나타내는 메타 데이터. |
tpureplicatedInput <t> | N개의 입력을 N방향 복제 TPU 계산에 연결합니다. |
tpureplicatedOutput <t> | N- 웨이 복제 된 TPU 계산에서 N 출력을 연결합니다. |
tpureshardvaribles | OP 기준 TPU 변수를 지정된 상태로 재구성하는 OP. |
tpuroundrobin | TPU 코어의 라운드 로빈 하중 밸런싱. |
임시 평가 <t> | 돌연변이 될 수 있지만 단일 단계 내에서만 지속되는 텐서를 반환합니다. |
TensorArray | 주어진 크기의 텐서 배열. |
TensorArrayClose | 자원 컨테이너에서 TensorArray를 삭제하십시오. |
TensorArrayConcat <t> | TensorArray에서 value`value '로 요소를 연결하십시오. |
TensorArraygather <t> | TensorArray에서 특정 요소를 출력 'value'로 수집하십시오. |
TensorArraygrad | 주어진 핸들에 값의 그라디언트를 저장하기위한 텐소 라 레이를 만듭니다. |
TensorArraygradwithShape | 주어진 핸들에 여러 값의 값을 저장하기위한 텐소 라 레이를 만듭니다. |
TensorArraypack <t> | |
TensorArrayread <T> | TensorArray에서 출력 'value'로 요소를 읽으십시오. |
TensorArrayscatter | 입력 값에서 데이터를 특정 TensorArray 요소로 산출하십시오. |
TensorArraysize | TensorArray의 현재 크기를 얻으십시오. |
TensorArraysplit | 입력 값의 데이터를 TensorArray 요소로 분할합니다. |
Tensorarrayunpack | |
TensorArraywrite | Tensor_Array에 요소를 밀어 넣으십시오. |
TensorlistConcat <t> | 0 차원을 따라 목록에있는 모든 텐서. |
Tensorlistconcatlist | |
Tensorlistconcatv2 <u> | 0 차원을 따라 목록에있는 모든 텐서. |
TensorListElementshape <t는 숫자>를 확장합니다 | 텐서로서 주어진 목록의 요소의 모양. |
Tensorlistfromtensor | 쌓을 때``tensor ''의 값을 갖는 Tensorlist를 만듭니다. |
Tensorlistgather <t> | Tensorlist에 인덱싱하여 텐서를 만듭니다. |
TensorlistgetItem <t> | |
Tensorlistlength | 입력 텐서 목록에서 텐서 수를 반환합니다. |
Tensorlistpopback <t> | 입력 목록의 마지막 요소와 해당 요소를 제외한 모든 목록을 반환합니다. |
Tensorlistpushback | 전달 된```````````tensor "가 마지막 요소와`input_handle '의 주어진 목록의 다른 요소가있는 목록을 반환합니다. |
Tensorlistpushbackbatch | |
Tensorlistreserve | 빈 요소가있는 주어진 크기 목록. |
Tensorlistresize | 목록을 크게 조정합니다. |
Tensorlistscatter | 텐서로 인덱싱하여 텐소리스트를 만듭니다. |
TensorlistscatterintoExistinglist | 입력 목록의 지수에서 텐서를 산란시킵니다. |
Tensorlistscatterv2 | 텐서로 인덱싱하여 텐소리스트를 만듭니다. |
TensorlistSetItem | |
Tensorlistsplit | 텐서를 목록으로 나눕니다. |
Tensorliststack <t> | 목록의 모든 텐서를 쌓습니다. |
텐서 페라 제 | 주어진 키가 지워진 항목으로 텐서 맵을 반환합니다. |
Tensormaphaskey | 주어진 키가지도에 존재하는지 여부를 반환합니다. |
Tensormapinsert | 주어진 키 값 쌍이 삽입 한 'input_handle'인 맵을 반환합니다. |
Tensormaplookup <u> | 텐서 맵에서 주어진 키에서 값을 반환합니다. |
Tensormapsize | 입력 텐서 맵에서 텐서 수를 반환합니다. |
Tensormapstackkeys <t> | 텐서 맵에서 모든 키의 텐서 스택을 반환합니다. |
Tensorscatteradd <t> | 'Indices'에 따라 기존 텐서에 Sparse`updates '를 추가합니다. |
Tensorscattermax <t> | 요소 별 최대 값을 취하는 텐서에 드문 업데이트를 적용하십시오. |
Tensorscattermin <t> | |
Tensorscattersub <t> | `indices '에 따라 기존 텐서에서 스파 스`updates'를 빼냅니다. |
Tensorscatterupdate <t> | 'indices'에 따라 '업데이트'를 기존 텐서로 뿌립니다. |
TensorstridedSliceUpdate <t> | 'value'를 '입력'의 슬라이스 된 l- 값 참조에 할당하십시오. |
ThreadPooldataSet | 사용자 정의 스레드 풀을 사용하여 'input_dataset'을 계산하는 데이터 세트를 만듭니다. |
ThreadPoolhandle | 사용자 정의 스레드 풀을 사용하여 'input_dataset'을 계산하는 데이터 세트를 만듭니다. |
타일 <t> | 주어진 텐서 타일링하여 텐서를 구축합니다. |
타임스탬프 | Epoch 이후 몇 초 만에 시간을 제공합니다. |
Tobool | 텐서를 스칼라 술어로 변환합니다. |
TopKunique | 배열에서 TOPK 고유 값을 정렬 된 순서로 반환합니다. |
Topkwithunique | 배열의 TOPK 값을 정렬 된 순서로 반환합니다. |
tpuhandletoprotokey | XRT의 UID 핸들을 Tensorflow 친화적 인 입력 형식으로 변환합니다. |
tridiagonalmatmul <t> | Tridiagonal 매트릭스로 제품을 계산하십시오. |
tridiagonalsolve <t> | 방정식의 트리 다이밀 시스템을 해결합니다. |
UNDATH <T> | 단일 출력 텐서에 대한 배치 작동을 뒤집습니다. |
UNDATTHGRAD <T> | UNDATH의 기울기. |
비 압축 | 압축되지 않은 데이터 세트 요소를 압축합니다. |
unicodedecode <t는 숫자>를 확장합니다 | 각 문자열을 '입력'의 유니 코드 코드 포인트 시퀀스로 디코딩합니다. |
Unicodeencode | Ints의 텐서를 유니 코드 문자열로 인코딩합니다. |
균일 한 정당화 <u는 숫자를 확장합니다 | 양자화 된 텐서 '입력'에 대한 quantization을 수행하십시오. |
균일 한 quantize <u> | 텐서 '입력'에서 양자화를 수행하십시오. |
균일 한 quantizedadd <t> | 양자화 된 텐서`lhs`와 양자화 된 텐서`rhs`를 양자화 된 추가를 수행하여 양자화 된 '출력'을 수행하십시오. |
균일 한 quantizedclipbyvalue <t> | 양자화 된 텐서 'Operand'에서 값으로 클립을 수행하십시오. |
균일 한 quantizedconvolution <u> | 양자화 된 텐서`lhs` 및 양자화 된 텐서`rhs '의 양자화 된 컨볼 루션을 수행하십시오. |
균일 한 QuantizedConvolutionHybrid <v는 숫자>를 확장합니다 | 플로트 텐서`lhs`와 양자화 된 텐서`rhs`의 하이브리드 양자화 된 컨볼 루션을 수행하십시오. |
균일 한 QuantizedDot <u> | 양자화 된 텐서`lhs`와 양자화 된 텐서`rhs`의 양자화 된 도트를 수행하여 양자화 된 '출력'을 만듭니다. |
균일 한 QuantizedDothybrid <V는 숫자를 확장합니다 | 플로트 텐서`lhs`와 양자화 된 텐서`rhs '의 하이브리드 양자화 된 도트를 수행하십시오. |
균일 한 대기 <u> | 양자화 된 텐서 '입력'이 주어지면 새로운 양자화 매개 변수로이를 요구합니다. |
고유 <t, v는 숫자를 확장합니다> | 텐서 축을 따라 독특한 요소를 찾습니다. |
iriquedataset | 'input_dataset'의 고유 한 요소가 포함 된 데이터 세트를 만듭니다. |
IliqueWithCounts <t, v는 숫자>를 연장합니다 | 텐서 축을 따라 독특한 요소를 찾습니다. |
UnsavelIndex <t는 숫자>를 확장합니다 | 평평한 지수를 튜플의 좌표 배열로 변환합니다. |
UnsortedSegmentjoin | |
<t>를 풀었다 | 주어진 차원의 랭크‘rant "(r-1)```텐서 (R-1) 텐서로 주어진 차원을 풀립니다. |
무대 | OP는 경량 퇴적물과 유사합니다. |
Unprapdatasetvariant | |
어퍼 바운드 <U 확장 번호> | 각 행을 따라 상류 _bound (sorted_search_values, 값)를 적용합니다. |
varhandleop | 가변 자원에 대한 핸들을 만듭니다. |
varisinitialized | 리소스 핸들 기반 변수가 초기화되었는지 확인합니다. |
변수 <t> | 단계를 가로 질러 지속되는 텐서의 형태로 상태를 유지합니다. |
variableShape <t는 숫자를 확장합니다 | `resource '로 가리키는 변수의 모양을 반환합니다. |
어디 | 텐서에서 0이 아닌 / 실제 값의 위치를 반환합니다. |
여기서 3 <t> | `조건`에 따라 `x` 또는 `y`에서 요소를 선택합니다. |
Windowop | |
Workerheartbeat | 노동자 심장 박동 OP. |
WrapdatasetVariant | |
Writerawprotosummary | 직렬화 된 프로토 요약을 작성합니다. |
xlaconcatnd <t> | Concats는 모든 차원에서 텐서를 입력합니다. |
xlarecvfromhost <t> | 호스트로부터 텐서를받는 OP. |
xlarecvtpuembeddingactivations | TPU에 임베딩 활성화를 수신하는 OP. |
xlarecvtpuembeddingduplicationData | 임베딩 코어에서 중복 제거 데이터 (지수 및 가중치)를 수신합니다. |
xlasendtpuembeddinggradients | 임베딩 테이블의 기울기 업데이트를 수행하는 OP. |
xlasendtohost | 텐서를 호스트에게 보내는 OP. |
xlasplitnd <t> | 모든 치수에 입력 텐서를 분할합니다. |
xlog1py <t> | x == 0이면 0을 반환하고 x * log1p (y)는 그렇지 않으면 요소를 반환합니다. |
0 <t> | `dims`에 의해 주어진 모양의 0으로 일정한 초기화를 생성하는 연산자. |
0 <t> | 같은 모양으로 0의 텐서를 반환하고 x와 유형을 유형합니다. |