중단 | 호출 시 프로세스를 중단하려면 예외를 발생시킵니다. |
모두 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 및"를 계산합니다. |
모두투모두 <T> | TPU 복제본 간에 데이터를 교환하는 작업입니다. |
익명해시테이블 | 초기화되지 않은 익명 해시 테이블을 만듭니다. |
익명IteratorV2 | 반복자 리소스의 컨테이너입니다. |
익명IteratorV3 | 반복자 리소스의 컨테이너입니다. |
익명메모리캐시 | |
익명MultiDeviceIterator | 다중 장치 반복자 리소스에 대한 컨테이너입니다. |
익명MultiDeviceIteratorV3 | 다중 장치 반복자 리소스에 대한 컨테이너입니다. |
익명변경 가능DenseHash테이블 | 텐서를 백업 저장소로 사용하는 빈 익명 가변 해시 테이블을 만듭니다. |
익명변경 가능해시 테이블 | 비어 있는 익명의 변경 가능한 해시 테이블을 만듭니다. |
익명변경 가능HashTableOfTensors | 벡터 값의 빈 익명 변경 가능 해시 테이블을 만듭니다. |
익명RandomSeedGenerator | |
익명SeedGenerator | |
어느 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 or"를 계산합니다. |
ApplyAdagradV2 <T> | adagrad 체계에 따라 '*var'를 업데이트합니다. |
ApproxTopK <T는 숫자를 확장함> | 입력 피연산자의 최소/최대 k 값과 해당 인덱스를 대략적인 방식으로 반환합니다. |
Assert카디널리티데이터세트 | |
AssertNextDataset | 다음에 어떤 변환이 발생하는지 확인하는 변환입니다. |
AssertPrev데이터 세트 | 이전에 어떤 변환이 발생했는지 확인하는 변환입니다. |
주장하다 | 주어진 조건이 참인지 확인합니다. |
<T> 할당 | 'value'를 할당하여 'ref'를 업데이트합니다. |
할당추가 <T> | 'value'를 추가하여 'ref'를 업데이트합니다. |
할당AddVariableOp | 변수의 현재 값에 값을 추가합니다. |
AssignSub <T> | 'value'를 빼서 'ref'를 업데이트합니다. |
AssignSubVariableOp | 변수의 현재 값에서 값을 뺍니다. |
할당변수작업 | 변수에 새 값을 할당합니다. |
AssignVariableXlaConcatND | 모든 차원에 걸쳐 입력 텐서를 연결합니다. |
AutoShard데이터세트 | 입력 데이터 세트를 샤딩하는 데이터 세트를 생성합니다. |
BandedTriangularSolve <T> | |
장벽 | 다양한 그래프 실행에서 지속되는 장벽을 정의합니다. |
장벽닫기 | 주어진 장벽을 닫습니다. |
장벽불완전한크기 | 주어진 장벽의 불완전한 요소 수를 계산합니다. |
장벽삽입많은 | 각 키에 대해 해당 값을 지정된 구성 요소에 할당합니다. |
배리어준비크기 | 주어진 장벽의 완전한 요소 수를 계산합니다. |
장벽가져다많은 | 장벽에서 주어진 수의 완성된 요소를 가져옵니다. |
일괄 | 모든 입력 텐서를 비결정적으로 일괄 처리합니다. |
BatchMatMulV2 <T> | 두 개의 텐서 조각을 일괄적으로 곱합니다. |
BatchMatMulV3 <V> | 두 개의 텐서 조각을 일괄적으로 곱합니다. |
BatchToSpace <T> | T 유형의 4차원 텐서에 대한 BatchToSpace. |
BatchToSpaceNd <T> | T 유형의 ND 텐서에 대한 BatchToSpace. |
BesselI0 <T 확장 번호> | |
BesselI1 <T 확장 번호> | |
BesselJ0 <T 확장 번호> | |
BesselJ1 <T 확장 번호> | |
BesselK0 <T 확장 번호> | |
BesselK0e <T 확장 번호> | |
BesselK1 <T 확장 번호> | |
BesselK1e <T 확장 번호> | |
BesselY0 <T 확장 번호> | |
BesselY1 <T 확장 번호> | |
비트캐스트 <U> | 데이터를 복사하지 않고 한 유형에서 다른 유형으로 텐서를 비트캐스트합니다. |
BlockLSTM <T는 숫자를 확장합니다> | 모든 시간 단계에 대해 LSTM 셀의 순방향 전파를 계산합니다. |
BlockLSTMGrad <T 확장 번호> | 전체 시간 시퀀스에 대한 LSTM 셀 역전파를 계산합니다. |
BlockLSTMGradV2 <T는 숫자를 확장합니다> | 전체 시간 시퀀스에 대한 LSTM 셀 역전파를 계산합니다. |
BlockLSTMV2 <T는 숫자를 확장합니다> | 모든 시간 단계에 대해 LSTM 셀의 순방향 전파를 계산합니다. |
BoostedTreesAggregateStats | 배치에 대해 누적된 통계 요약을 집계합니다. |
BoostedTrees버킷화 | 버킷 경계를 기준으로 각 기능을 버킷화합니다. |
BoostedTreesCalculateBestFeatureSplit | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTreesCalculateBestFeatureSplitV2 | 각 기능에 대한 이득을 계산하고 각 노드에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTreesCalculateBestGainsPerFeature | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTrees센터바이어스 | 훈련 데이터(편향)에서 사전을 계산하고 첫 번째 노드를 로짓의 사전으로 채웁니다. |
BoostedTreesCreateEnsemble | 트리 앙상블 모델을 생성하고 이에 대한 핸들을 반환합니다. |
BoostedTreesCreateQuantileStreamResource | Quantile Streams에 대한 리소스를 생성합니다. |
BoostedTreesDeserializeEnsemble | 직렬화된 트리 앙상블 구성을 역직렬화하고 현재 트리를 대체합니다. 앙상블. |
BoostedTreesEnsembleResourceHandleOp | BoostedTreesEnsembleResource에 대한 핸들을 생성합니다. |
BoostedTrees예제디버그 출력 | 각 예제에 대한 디버깅/모델 해석 가능성 출력. |
BoostedTreesFlushQuantile요약 | 각 분위수 스트림 리소스에서 분위수 요약을 플러시합니다. |
BoostedTreesGetEnsembleStates | 나무 앙상블 리소스 스탬프 토큰, 나무 수 및 성장 통계를 검색합니다. |
BoostedTreesMakeQuantile요약 | 배치에 대한 분위수의 요약을 작성합니다. |
BoostedTreesMakeStats요약 | 배치에 대해 누적된 통계를 요약합니다. |
BoostedTree예측 | 입력 인스턴스에서 여러 가산 회귀 앙상블 예측기를 실행하고 로짓을 계산합니다. |
BoostedTreesQuantileStreamResourceAddSummaries | 각 분위수 스트림 리소스에 분위수 요약을 추가합니다. |
BoostedTreesQuantileStreamResourceDeserialize | 버킷 경계와 준비 플래그를 현재 QuantileAccumulator로 역직렬화합니다. |
BoostedTreesQuantileStreamResourceFlush | 분위수 스트림 리소스에 대한 요약을 플러시합니다. |
BoostedTreesQuantileStreamResourceGetBucketBoundaries | 누적된 요약을 기반으로 각 기능에 대한 버킷 경계를 생성합니다. |
BoostedTreesQuantileStreamResourceHandleOp | BoostedTreesQuantileStreamResource에 대한 핸들을 생성합니다. |
BoostedTreesSerializeEnsemble | 트리 앙상블을 proto로 직렬화합니다. |
BoostedTreesSparseAggregateStats | 배치에 대해 누적된 통계 요약을 집계합니다. |
BoostedTreeSparseCalculateBestFeatureSplit | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTrees훈련예측 | 입력 인스턴스에서 여러 가산 회귀 앙상블 예측기를 실행하고 캐시된 로짓에 대한 업데이트를 계산합니다. |
BoostedTreesUpdate앙상블 | 성장 중인 마지막 나무에 레이어를 추가하여 나무 앙상블을 업데이트합니다. 또는 새 트리를 시작하여. |
BoostedTreesUpdateEnsembleV2 | 성장 중인 마지막 나무에 레이어를 추가하여 나무 앙상블을 업데이트합니다. 또는 새 트리를 시작하여. |
BroadcastDynamicShape <T는 숫자를 확장함> | 브로드캐스트를 사용하여 s0 op s1의 모양을 반환합니다. |
BroadcastGradientArgs <T는 숫자를 확장합니다> | 브로드캐스트를 사용하여 s0 op s1의 기울기를 계산하기 위한 감소 지수를 반환합니다. |
<T>에 방송 | 호환 가능한 모양에 대한 배열을 브로드캐스트합니다. |
버킷화 | '경계'를 기준으로 '입력'을 버킷화합니다. |
CSRSparseMatrixComponents <T> | 배치 '인덱스'에서 CSR 구성 요소를 읽습니다. |
CSRSparseMatrixToDense <T> | (아마도 일괄 처리된) CSRSparseMatrix를 고밀도로 변환합니다. |
CSRSparseMatrixToSparseTensor <T> | (아마도 일괄 처리된) CSRSparesMatrix를 SparseTensor로 변환합니다. |
CSV데이터세트 | |
CSV데이터세트V2 | |
CTCLossV2 | 각 배치 항목에 대한 CTC 손실(로그 확률)을 계산합니다. |
캐시데이터세트V2 | |
CheckNumericsV2 <T는 숫자를 확장합니다> | NaN, -Inf 및 +Inf 값에 대한 텐서를 확인합니다. |
가장 빠른 데이터 세트 선택 | |
클립바이값 <T> | 텐서 값을 지정된 최소값과 최대값으로 자릅니다. |
한 부씩 인쇄TPU임베딩메모리 | 모든 호스트의 문자열로 인코딩된 메모리 구성 proto를 병합하는 작업입니다. |
CollectiveAllToAllV2 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 교환합니다. |
CollectiveAllToAllV3 <T는 숫자를 확장합니다> | 동일한 유형과 모양의 여러 텐서를 상호 교환합니다. |
CollectiveAssignGroupV2 | 그룹 할당에 따라 그룹 키를 할당합니다. |
CollectiveBcastRecvV2 <U> | 다른 장치에서 브로드캐스트된 텐서 값을 수신합니다. |
CollectiveBcastSendV2 <T> | 하나 이상의 다른 장치에 텐서 값을 브로드캐스트합니다. |
CollectiveGather <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축적합니다. |
CollectiveGatherV2 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축적합니다. |
집단초기화커뮤니케이터 | 집단 작업을 위해 그룹을 초기화합니다. |
CollectivePermute <T> | 복제된 TPU 인스턴스 전체에서 텐서를 순열하는 작업입니다. |
CollectiveReduceScatterV2 <T 확장 숫자> | 동일한 유형과 모양의 여러 텐서를 상호 축소하고 결과를 분산시킵니다. |
CollectiveReduceV2 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축소합니다. |
CollectiveReduceV3 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축소합니다. |
CombinedNonMaxSuppression | 점수의 내림차순으로 경계 상자의 하위 집합을 탐욕스럽게 선택합니다. 이 작업은 모든 클래스에서 배치당 입력에 대해 non_max_suppression을 수행합니다. |
CompositeTensorVariantFromComponents | 'ExtensionType' 값을 'variant' 스칼라 텐서로 인코딩합니다. |
CompositeTensorVariantToComponents | 'variant' 스칼라 Tensor를 'ExtensionType' 값으로 디코딩합니다. |
요소 압축 | 데이터 세트 요소를 압축합니다. |
ComputeBatchSize | 부분 배치가 없는 데이터 세트의 정적 배치 크기를 계산합니다. |
ComputeDedupDataTupleMask | 연산은 임베딩 코어에서 중복 제거 데이터의 튜플 마스크를 계산합니다. |
연결 <T> | 한 차원을 따라 텐서를 연결합니다. |
구성및초기화GlobalTPU | 분산 TPU 시스템의 중앙 집중식 구조를 설정하는 작업입니다. |
분산TPU 구성 | 분산 TPU 시스템의 중앙 집중식 구조를 설정합니다. |
TPU임베딩 구성 | 분산 TPU 시스템에서 TPUEmbedding을 설정합니다. |
TPUEmbeddingHost 구성 | 호스트에서 TPUEmbedding 소프트웨어를 구성하는 작업입니다. |
TPU임베딩메모리 구성 | 호스트에서 TPUEmbedding 소프트웨어를 구성하는 작업입니다. |
ConnectTPUE임베딩호스트 | TPUEmbedding 호스트 소프트웨어 인스턴스 간의 통신을 설정하는 작업 각 호스트에서 ConfigureTPUEmbeddingHost가 호출된 후. |
상수 <T> | 상수 값을 생성하는 연산자입니다. |
소비MutexLock | 이 작업은 `MutexLock`에 의해 생성된 잠금을 사용합니다. |
제어트리거 | 아무것도 하지 않습니다. |
Conv2DBackpropFilterV2 <T는 숫자를 확장합니다> | 필터에 대한 컨볼루션의 기울기를 계산합니다. |
Conv2DBackpropInputV2 <T 확장 번호> | 입력에 대한 컨볼루션의 기울기를 계산합니다. |
복사 <T> | CPU에서 CPU로 또는 GPU에서 GPU로 텐서를 복사합니다. |
카피호스트 <T> | 텐서를 호스트에 복사합니다. |
메시에 복사 <T> | |
CopyToMeshGrad <T> | |
CountUpTo <T는 숫자를 확장합니다> | 'limit'에 도달할 때까지 'ref'를 증가시킵니다. |
CrossReplicaSum <T 확장 번호> | 복제된 TPU 인스턴스 전체에서 입력을 합산하는 작업입니다. |
CudnnRNNBackpropV3 <T 확장 번호> | CudnnRNNV3의 역전파 단계. |
CudnnRNNCanonicalToParamsV2 <T는 숫자를 확장합니다> | CudnnRNN 매개변수를 표준 형식에서 사용 가능한 형식으로 변환합니다. |
CudnnRNNParamsToCanonicalV2 <T는 숫자를 확장합니다> | 표준 형식으로 CudnnRNN 매개변수를 검색합니다. |
CudnnRNNV3 <T 확장 번호> | cuDNN이 지원하는 RNN입니다. |
CumulativeLogsumexp <T 확장 숫자> | '축'을 따라 텐서 'x'의 누적 곱을 계산합니다. |
DTensorRestoreV2 | |
DTensorSetGlobalTPUArray | 시스템에 있는 모든 TPU의 전역 ID를 호스트에 알리는 작업입니다. |
DataService데이터 세트 | tf.data 서비스에서 데이터를 읽는 데이터 세트를 생성합니다. |
DataServiceDatasetV2 | tf.data 서비스에서 데이터를 읽는 데이터 세트를 생성합니다. |
데이터 세트 카디널리티 | `input_dataset`의 카디널리티를 반환합니다. |
데이터세트FromGraph | 주어진 `graph_def`에서 데이터세트를 생성합니다. |
DatasetToGraphV2 | 'input_dataset'을 나타내는 직렬화된 GraphDef를 반환합니다. |
Dawsn <T 확장 번호> | |
DebugGradientIdentity <T> | 그래디언트 디버깅을 위한 ID 작업입니다. |
DebugGradientRefIdentity <T> | 그래디언트 디버깅을 위한 ID 작업입니다. |
디버그 ID <T> | 디버깅을 위해 Ref가 아닌 유형 입력 텐서의 ID 매핑을 제공합니다. |
DebugIdentityV2 <T> | 디버그 ID V2 Op. |
DebugNanCount | NaN 값 카운터 Op. 디버그 |
디버그숫자요약 | 디버그 수치 요약 Op. |
DebugNumericSummaryV2 <U 확장 번호> | 디버그 수치 요약 V2 Op. |
DecodeImage <T는 숫자를 확장합니다> | decode_bmp, decode_gif, decode_jpeg 및 decode_png에 대한 함수입니다. |
DecodePaddedRaw <T는 숫자를 확장합니다> | 문자열의 바이트를 숫자 벡터로 재해석합니다. |
디코드프로토 | 연산은 직렬화된 프로토콜 버퍼 메시지의 필드를 텐서로 추출합니다. |
딥카피 <T> | `x`의 복사본을 만듭니다. |
삭제반복자 | 반복자 리소스의 컨테이너입니다. |
메모리캐시 삭제 | |
다중 장치 반복자 삭제 | 반복자 리소스의 컨테이너입니다. |
삭제RandomSeedGenerator | |
삭제시드 생성기 | |
삭제세션텐서 | 세션의 핸들로 지정된 텐서를 삭제합니다. |
DenseBincount <U 확장 숫자> | 정수 배열에서 각 값의 발생 횟수를 셉니다. |
DenseCountSparseOutput <U 확장 숫자> | tf.tensor 입력에 대해 희소 출력 Bin 계산을 수행합니다. |
DenseToCSRSparseMatrix | 조밀한 텐서를 (아마도 일괄 처리된) CSRSparseMatrix로 변환합니다. |
DestroyResourceOp | 핸들에 지정된 리소스를 삭제합니다. |
DestroyTemporary변수 <T> | 임시 변수를 삭제하고 최종 값을 반환합니다. |
DeviceIndex | 작업이 실행되는 장치의 인덱스를 반환합니다. |
DirectedInterleave데이터세트 | 'N' 데이터 세트의 고정 목록에서 'InterleaveDataset'을 대체합니다. |
비활성화CopyOnRead | 읽기 시 복사 모드를 끕니다. |
분산저장 | |
DrawBoundingBoxesV2 <T는 숫자를 확장합니다> | 이미지 배치에 경계 상자를 그립니다. |
더미반복카운터 | |
더미메모리캐시 | |
더미 시드 생성기 | |
DynamicEnqueueTPUEmbeddingArbitraryTensorBatch | tf.nn.embedding_lookup_sparse()를 사용하는 코드 포팅을 쉽게 합니다. |
동적파티션 <T> | `파티션`의 인덱스를 사용하여 `데이터`를 `num_partitions` 텐서로 분할합니다. |
다이나믹스티치 <T> | '데이터' 텐서의 값을 단일 텐서에 인터리브합니다. |
편집거리 | (정규화된) Levenshtein Edit Distance를 계산합니다. |
에이그 <U> | 하나 이상의 정사각 행렬의 고유 분해를 계산합니다. |
아인섬 <T> | 아인슈타인 합산 규칙에 따른 텐서 수축. |
비어 있음 <T> | 주어진 모양으로 텐서를 생성합니다. |
비어있는TensorList | 빈 텐서 목록을 생성하고 반환합니다. |
비어있음TensorMap | 빈 텐서 맵을 생성하고 반환합니다. |
EncodeProto | op는 입력 텐서에 제공된 protobuf 메시지를 직렬화합니다. |
EnqueueTPU임베딩임의TensorBatch | tf.nn.embedding_lookup_sparse()를 사용하는 코드 포팅을 쉽게 합니다. |
EnqueueTPUEmbeddingBatch | 입력 배치 텐서 목록을 TPUEmbedding에 추가하는 작업입니다. |
EnqueueTPUEmbeddingIntegerBatch | 입력 배치 텐서 목록을 TPUEmbedding에 추가하는 작업입니다. |
EnqueueTPUEmbeddingRaggedTensorBatch | tf.nn.embedding_lookup()을 사용하는 코드 포팅을 쉽게 합니다. |
EnqueueTPUEmbeddingSparseBatch | SparseTensor에서 TPUEmbedding 입력 인덱스를 대기열에 추가하는 작업입니다. |
EnqueueTPUEmbeddingSparseTensorBatch | tf.nn.embedding_lookup_sparse()를 사용하는 코드 포팅을 쉽게 합니다. |
형태 보장 <T> | 텐서의 모양이 예상되는 모양과 일치하는지 확인합니다. |
<T>를 입력하세요 | 하위 프레임을 만들거나 찾고 하위 프레임에서 '데이터'를 사용할 수 있도록 합니다. |
Erfinv <T 확장 번호> | |
유클리드표준 <T> | 텐서의 차원 전체에 걸쳐 요소의 유클리드 노름을 계산합니다. |
TPUEmbeddingPartitioner 실행 | 중앙 구성에서 TPUEmbedding 파티셔너를 실행하는 작업 TPUEmbedding 작업에 필요한 HBM 크기(바이트)를 계산합니다. |
종료 <T> | 현재 프레임을 상위 프레임으로 종료합니다. |
ExpandDim <T> | 텐서의 모양에 1차원을 삽입합니다. |
ExperimentalAutoShard데이터 세트 | 입력 데이터 세트를 샤딩하는 데이터 세트를 생성합니다. |
ExperimentalBytesProducedStatsDataset | StatsAggregator에 있는 'input_dataset'의 각 요소의 바이트 크기를 기록합니다. |
실험적ChooseFastestDataset | |
실험적데이터세트카디널리티 | `input_dataset`의 카디널리티를 반환합니다. |
ExperimentalDatasetToTFRecord | TFRecord 형식을 사용하여 지정된 파일에 지정된 데이터세트를 씁니다. |
ExperimentalDenseToSparseBatchDataset | 입력 요소를 SparseTensor로 일괄 처리하는 데이터세트를 생성합니다. |
실험적 지연 시간 통계 데이터 세트 | StatsAggregator에서 'input_dataset' 요소를 생성하는 지연 시간을 기록합니다. |
ExperimentalMatchingFiles데이터 세트 | |
ExperimentalMaxIntraOpParallelismDataset | 최대 작업 내 병렬 처리를 재정의하는 데이터 세트를 만듭니다. |
ExperimentalParseExampleDataset | DT_STRING의 벡터인 'Example' 프로토를 포함하는 'input_dataset'를 구문 분석된 기능을 나타내는 'Tensor' 또는 'SparseTensor' 개체의 데이터세트로 변환합니다. |
ExperimentalPrivateThreadPoolDataset | 사용자 정의 스레드 풀을 사용하여 'input_dataset'을 계산하는 데이터 세트를 생성합니다. |
실험적 무작위 데이터세트 | 의사 난수를 반환하는 데이터 세트를 만듭니다. |
ExperimentalRebatch데이터 세트 | 배치 크기를 변경하는 데이터세트를 만듭니다. |
ExperimentalSetStatsAggregatorDataset | |
ExperimentalSlidingWindowDataset | `input_dataset`에 대한 슬라이딩 윈도우를 전달하는 데이터세트를 생성합니다. |
ExperimentalSqlDataset | SQL 쿼리를 실행하고 결과 집합의 행을 내보내는 데이터 집합을 만듭니다. |
ExperimentalStatsAggregatorHandle | 통계 관리자 리소스를 생성합니다. |
ExperimentalStatsAggregator요약 | 지정된 통계 관리자가 기록한 모든 통계의 요약을 생성합니다. |
ExperimentalUnbatchDataset | 입력 요소를 여러 요소로 분할하는 데이터세트입니다. |
Expint <T는 숫자를 확장합니다> | |
ExtractGlimpseV2 | 입력 텐서에서 엿볼 수 있는 내용을 추출합니다. |
ExtractVolumePatches <T 확장 번호> | `입력`에서 `패치`를 추출하여 `"깊이"` 출력 차원에 넣습니다. |
파일시스템 세트 구성 | 파일 시스템의 구성을 설정합니다. |
채우기 <U> | 스칼라 값으로 채워진 텐서를 생성합니다. |
FinalizeDataset | 'input_dataset'에 tf.data.Options 적용하여 데이터세트를 생성합니다. |
TPU임베딩 마무리 | TPUEmbedding 구성을 마무리하는 작업입니다. |
지문 | 지문 값을 생성합니다. |
FresnelCos <T 확장 번호> | |
FresnelSin <T는 숫자를 확장함> | |
FusedBatchNormGradV3 <T는 숫자 확장, U는 숫자 확장> | 일괄 정규화를 위한 기울기입니다. |
FusedBatchNormV3 <T는 숫자 확장, U는 숫자 확장> | 일괄 정규화. |
GRUBlockCell <T는 숫자를 확장합니다> | 1시간 단계에 대한 GRU 셀 순방향 전파를 계산합니다. |
GRUBlockCellGrad <T는 숫자를 확장합니다> | 1시간 단계에 대한 GRU 셀 역전파를 계산합니다. |
모아 <T> | `indices`에 따라 `params` 축 `axis`에서 슬라이스를 수집합니다. |
집결 <T> | `params`의 조각을 `indices`로 지정된 모양의 Tensor로 수집합니다. |
BoundingBoxProposals 생성 | 이 작업은 arXiv:1506.01497의 eq.2에 따라 주어진 경계 상자(bbox_deltas)로 인코딩된 wrt 앵커로부터 관심 영역을 생성합니다. op는 상위 `pre_nms_topn` 점수 상자를 선택하고 앵커와 관련하여 디코딩하며 `nms_threshold` 교차-결합(iou) 값보다 높은 중첩 상자에 최대 비최대 억제를 적용하고 짧은 변이 `보다 작은 상자를 삭제합니다. 최소_크기`. |
GetElementAtIndex | 데이터세트의 지정된 인덱스에 있는 요소를 가져옵니다. |
GetOptions | `input_dataset`에 연결된 tf.data.Options 반환합니다. |
세션 핸들 가져오기 | 입력 텐서를 현재 세션 상태로 저장합니다. |
GetSessionTensor <T> | 핸들로 지정된 텐서의 값을 가져옵니다. |
그라데이션 | y s wrt x s의 합의 편도함수를 계산하는 연산을 추가합니다. 즉, d(y_1 + y_2 + ...)/dx_1, d(y_1 + y_2 + ...)/dx_2... Options.dx() 값이 설정되면 일부 손실 함수 L wrt의 초기 기호 편도함수와 같습니다. |
보증 상수 <T> | 입력 텐서가 상수임을 TF 런타임에 보장합니다. |
해시테이블 | 초기화되지 않은 해시 테이블을 생성합니다. |
HistogramFixedWidth <U 확장 숫자> | 값의 히스토그램을 반환합니다. |
신원 <T> | 입력 텐서 또는 값과 모양과 내용이 동일한 텐서를 반환합니다. |
아이덴티티N | 입력과 모양 및 내용이 동일한 텐서 목록을 반환합니다. 텐서. |
오류 무시데이터 세트 | 오류를 무시하고 'input_dataset' 요소가 포함된 데이터세트를 생성합니다. |
ImageProjectiveTransformV2 <T는 숫자를 확장합니다> | 주어진 변환을 각 이미지에 적용합니다. |
ImageProjectiveTransformV3 <T는 숫자를 확장합니다> | 주어진 변환을 각 이미지에 적용합니다. |
ImmutableConst <T> | 메모리 영역에서 불변 텐서를 반환합니다. |
인피드큐 제거 <T> | 계산에 입력될 값에 대한 자리 표시자 작업입니다. |
InfeedDequeueTuple | 인피드에서 XLA 튜플로 여러 값을 가져옵니다. |
인피드인큐 | 단일 Tensor 값을 계산에 제공하는 연산입니다. |
InfeedEnqueuePrelinearizedBuffer | 사전 선형화된 버퍼를 TPU 인피드에 추가하는 작업입니다. |
InfeedEnqueueTuple | 여러 Tensor 값을 XLA 튜플로 계산에 제공합니다. |
테이블 초기화 | 키와 값에 각각 두 개의 텐서를 사용하는 테이블 초기화 프로그램입니다. |
TableFromDataset 초기화 | |
TableFromTextFile 초기화 | 텍스트 파일에서 테이블을 초기화합니다. |
내부추가 <T> | x의 지정된 행에 v를 추가합니다. |
InplaceSub <T> | 'x'의 지정된 행에서 'v'를 뺍니다. |
인플레이스업데이트 <T> | 지정된 행 'i'를 값 'v'로 업데이트합니다. |
IsBoostedTreesEnsembleInitialized | 트리 앙상블이 초기화되었는지 확인합니다. |
IsBoostedTreesQuantileStreamResourceInitialized | Quantile 스트림이 초기화되었는지 확인합니다. |
TPUEmbedding초기화됨 | 분산 TPU 시스템에서 TPU 임베딩이 초기화되는지 여부입니다. |
변수가 초기화됨 | 텐서가 초기화되었는지 확인합니다. |
IsotonicRegression <U 확장 숫자> | 일련의 등장성 회귀 문제를 해결합니다. |
IteratorGetDevice | `리소스`가 배치된 장치의 이름을 반환합니다. |
KMC2Chain초기화 | 시드 세트에 추가되어야 하는 데이터 포인트의 인덱스를 반환합니다. |
KmeansPlusPlus초기화 | KMeans++ 기준을 사용하여 num_to_sample개의 입력 행을 선택합니다. |
KthOrder통계 | 데이터 세트의 K차 통계를 계산합니다. |
LMDB데이터세트 | 하나 이상의 LMDB 파일에 키-값 쌍을 내보내는 데이터 세트를 생성합니다. |
LSTMBlockCell <T는 숫자를 확장합니다> | 1시간 단계에 대한 LSTM 셀의 순방향 전파를 계산합니다. |
LSTMBlockCellGrad <T는 숫자를 확장합니다> | 1 시간 단계에 대한 LSTM 셀 역전파를 계산합니다. |
LinSpace <T는 숫자를 확장합니다> | 일정 간격으로 값을 생성합니다. |
목록데이터세트 | 각 '텐서'를 한 번씩 내보내는 데이터세트를 만듭니다. |
LoadAllTPUEmbedding매개변수 | 내장 메모리에 최적화 매개변수를 로드하는 연산입니다. |
TPU임베딩ADAM매개변수 로드 | ADAM 포함 매개변수를 로드합니다. |
LoadTPUEmbeddingAdadelta매개변수 | Adadelta 임베딩 매개변수를 로드합니다. |
LoadTPUE임베딩AdagradMomentum매개변수 | Adagrad Momentum 임베딩 매개변수를 로드합니다. |
LoadTPUE임베딩Adagrad매개변수 | Adagrad 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingCenteredRMSProp매개변수 | 로드 중심 RMSProp 임베딩 매개변수입니다. |
LoadTPUEmbeddingFTRL매개변수 | FTRL 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingFrequencyEstimator매개변수 | 부하 주파수 추정기 임베딩 매개변수. |
LoadTPUEmbeddingMDLadagradLight매개변수 | MDL Adagrad Light 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingMomentum매개변수 | Momentum 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingProximalAdagrad매개변수 | 근위 Adagrad 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingProximalYogi매개변수 | |
LoadTPUEmbeddingRMSProp매개변수 | RMSProp 임베딩 매개변수를 로드합니다. |
LoadTPUE임베딩확률적 경사하강 매개변수 | SGD 내장 매개변수를 로드합니다. |
LookupTableExport <T, U> | 테이블의 모든 키와 값을 출력합니다. |
조회테이블찾기 <U> | 테이블에서 키를 조회하고 해당 값을 출력합니다. |
조회테이블가져오기 | 테이블의 내용을 지정된 키와 값으로 바꿉니다. |
조회테이블삽입 | 키를 값과 연결하도록 테이블을 업데이트합니다. |
조회테이블제거 | 테이블에서 키와 관련 값을 제거합니다. |
조회테이블 크기 | 주어진 테이블의 요소 수를 계산합니다. |
LoopCond | 입력을 출력으로 전달합니다. |
LowerBound <U 확장 번호> | 각 행을 따라 lower_bound(sorted_search_values,values)를 적용합니다. |
Lu <T, U 확장 숫자> | 하나 이상의 정사각 행렬의 LU 분해를 계산합니다. |
고유하게 만들기 | 배치가 아닌 차원의 모든 요소를 고유하게 만드십시오. 단, 다음과 \"가까운\" 초기값. |
지도지우기 | Op는 기본 컨테이너의 모든 요소를 제거합니다. |
지도불완전한 크기 | Op는 기본 컨테이너의 불완전한 요소 수를 반환합니다. |
지도Peek | Op는 지정된 키의 값을 엿봅니다. |
지도 크기 | Op는 기본 컨테이너의 요소 수를 반환합니다. |
맵스테이지 | 해시테이블처럼 작동하는 기본 컨테이너의 스테이지(키, 값)입니다. |
지도Unstage | Op는 키와 관련된 값을 제거하고 반환합니다. 기본 컨테이너에서. |
지도UnstageNoKey | Op는 임의의 (키, 값)을 제거하고 반환합니다. 기본 컨테이너에서. |
MatrixDiagPartV2 <T> | 배치 텐서의 배치 대각선 부분을 반환합니다. |
MatrixDiagPartV3 <T> | 배치 텐서의 배치 대각선 부분을 반환합니다. |
MatrixDiagV2 <T> | 주어진 배치 대각선 값을 갖는 배치 대각선 텐서를 반환합니다. |
MatrixDiagV3 <T> | 주어진 배치 대각선 값을 갖는 배치 대각선 텐서를 반환합니다. |
MatrixSetDiagV2 <T> | 새로운 배치 대각선 값을 갖는 배치 행렬 텐서를 반환합니다. |
MatrixSetDiagV3 <T> | 새로운 배치 대각선 값을 갖는 배치 행렬 텐서를 반환합니다. |
최대 <T> | 텐서의 차원 전체에서 요소의 최대값을 계산합니다. |
MaxIntraOpParallelismDataset | 최대 작업 내 병렬 처리를 재정의하는 데이터 세트를 만듭니다. |
<T> 병합 | 사용 가능한 텐서의 값을 `inputs`에서 `output`으로 전달합니다. |
데이터 중복 제거 병합 | 작업은 정수 및 부동 소수점 텐서의 요소를 XLA 튜플로 중복 제거 데이터에 병합합니다. |
최소 <T> | 텐서의 차원 전체에서 최소 요소를 계산합니다. |
미러패드 <T> | 미러링된 값으로 텐서를 채웁니다. |
MirrorPadGrad <T> | 'MirrorPad'에 대한 그라데이션 작업입니다. |
MlirPassthroughOp | main() 함수를 사용하여 모듈로 표현된 임의의 MLIR 계산을 래핑합니다. |
물노난 <T> | x * y 요소별로 반환합니다. |
가변밀도해시테이블 | 텐서를 백업 저장소로 사용하는 빈 해시 테이블을 만듭니다. |
가변해시테이블 | 빈 해시 테이블을 생성합니다. |
MutableHashTableOfTensors | 빈 해시 테이블을 생성합니다. |
뮤텍스 | 'MutexLock'으로 잠글 수 있는 Mutex 리소스를 생성합니다. |
MutexLock | 뮤텍스 리소스를 잠급니다. |
NcclAllReduce <T는 숫자를 확장합니다> | 모든 입력 텐서에 대한 감소를 포함하는 텐서를 출력합니다. |
NcclBroadcast <T는 숫자를 확장합니다> | 출력에 연결된 모든 장치에 '입력'을 보냅니다. |
NcclReduce <T는 숫자를 확장합니다> | 단일 장치에 대한 `reduction`을 사용하여 `num_devices`에서 `input`을 줄입니다. |
Ndtri <T 확장 번호> | |
가장 가까운 이웃 | 각 점에 대해 가장 가까운 k개의 중심을 선택합니다. |
다음 <T 확장 번호> 이후 | 요소별로 `x2` 방향으로 표현 가능한 `x1`의 다음 값을 반환합니다. |
다음반복 <T> | 다음 반복에서 해당 입력을 사용할 수 있도록 합니다. |
작동 안 함 | 아무것도 하지 않습니다. |
NonDeterministicInts <U> | 일부 정수를 비결정적으로 생성합니다. |
NonMaxSuppressionV5 <T 확장 숫자> | 점수의 내림차순으로 경계 상자의 하위 집합을 탐욕스럽게 선택합니다. IOU(Intersection-Over-Union)가 높은 상자가 이전에 선택한 상자와 겹치는 부분을 제거합니다. |
직렬화 가능하지 않은 데이터세트 | |
원핫 <U> | 원-핫 텐서를 반환합니다. |
같은 사람들 <T> | x와 모양과 유형이 동일한 텐서를 반환합니다. |
OptimizeDatasetV2 | `input_dataset`에 관련 최적화를 적용하여 데이터 세트를 생성합니다. |
옵션데이터세트 | tf.data.Options를 `input_dataset`에 연결하여 데이터세트를 생성합니다. |
주문됨지도지우기 | Op는 기본 컨테이너의 모든 요소를 제거합니다. |
주문된 지도불완전한 크기 | Op는 기본 컨테이너의 불완전한 요소 수를 반환합니다. |
OrderedMapPeek | Op는 지정된 키의 값을 엿봅니다. |
주문된 지도 크기 | Op는 기본 컨테이너의 요소 수를 반환합니다. |
OrderedMapStage | 순서가 지정된 것처럼 동작하는 기본 컨테이너의 단계(키, 값) 연관 컨테이너. |
OrderedMapUnstage | Op는 키와 관련된 값을 제거하고 반환합니다. 기본 컨테이너에서. |
OrderedMapUnstageNoKey | Op는 가장 작은 (키, 값) 요소를 제거하고 반환합니다. 기본 컨테이너의 키입니다. |
아웃피드큐 제거 <T> | 계산 아웃피드에서 단일 텐서를 검색합니다. |
OutfeedDequeueTuple | 계산 아웃피드에서 여러 값을 검색합니다. |
OutfeedDequeueTupleV2 | 계산 아웃피드에서 여러 값을 검색합니다. |
OutfeedDequeueV2 <T> | 계산 아웃피드에서 단일 텐서를 검색합니다. |
아웃피드인큐 | 계산 아웃피드에 Tensor를 추가합니다. |
OutfeedEnqueueTuple | 계산 아웃피드에 여러 Tensor 값을 대기열에 넣습니다. |
패드 <T> | 텐서를 채웁니다. |
병렬배치데이터세트 | |
ParallelConcat <T> | 첫 번째 차원을 따라 'N' 텐서 목록을 연결합니다. |
병렬동적스티치 <T> | '데이터' 텐서의 값을 단일 텐서에 인터리브합니다. |
ParseExampleDatasetV2 | DT_STRING의 벡터인 'Example' 프로토를 포함하는 'input_dataset'를 구문 분석된 기능을 나타내는 'Tensor' 또는 'SparseTensor' 개체의 데이터세트로 변환합니다. |
구문 분석ExampleV2 | tf.Example proto의 벡터(문자열)를 형식화된 텐서로 변환합니다. |
ParseSequenceExampleV2 | tf.io.SequenceExample proto의 벡터(문자열)를 형식화된 텐서로 변환합니다. |
자리 표시자 <T> | 계산에 입력될 값에 대한 자리 표시자 작업입니다. |
PlaceholderWithDefault <T> | 출력이 공급되지 않을 때 '입력'을 통과하는 자리 표시자 작업입니다. |
사전선형화 | 하나의 Tensor 값을 불투명한 변형 텐서로 선형화하는 작업입니다. |
사전선형화Tuple | 여러 Tensor 값을 불투명한 변형 텐서로 선형화하는 작업입니다. |
프리미티브Op | 단일 Operation 에 의해 지원되는 Op 구현을 위한 기본 클래스입니다. |
인쇄 | 문자열 스칼라를 인쇄합니다. |
PrivateThreadPoolDataset | 사용자 정의 스레드 풀을 사용하여 'input_dataset'을 계산하는 데이터 세트를 생성합니다. |
프로덕션 <T> | 텐서의 차원에 걸쳐 요소의 곱을 계산합니다. |
QuantizeAndDeQuantizeV4 <T는 숫자를 확장합니다> | 텐서를 양자화한 다음 역양자화합니다. |
QuantizeAndDeQuantizeV4Grad <T는 숫자를 확장합니다> | `QuantizeAndDeQuantizeV4`의 기울기를 반환합니다. |
QuantizedConcat <T> | 한 차원을 따라 양자화된 텐서를 연결합니다. |
QuantizedConcatV2 <T> | |
QuantizedConv2DAndRelu <V> | |
QuantizedConv2DAndReluAndReQuantize <V> | |
QuantizedConv2DAndReQuantize <V> | |
QuantizedConv2DPerChannel <V> | 채널당 QuantizedConv2D를 계산합니다. |
QuantizedConv2DWithBias <V> | |
QuantizedConv2DWithBiasAndRelu <V> | |
QuantizedConv2DWithBiasAndReluAndReQuantize <W> | |
QuantizedConv2DWithBiasAndReQuantize <W> | |
QuantizedConv2DWithBiasSignedSumAndReluAndReQuantize <X> | |
QuantizedConv2DWithBiasSumAndRelu <V> | |
QuantizedConv2DWithBiasSumAndReluAndReQuantize <X> | |
QuantizedDepthwiseConv2D <V> | 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBias <V> | 바이어스를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBiasAndRelu <V> | Bias 및 Relu를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBiasAndReluAndReQuantize <W> | Bias, Relu 및 ReQuantize를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedMatMulWithBias <W> | 바이어스 덧셈을 사용하여 'a'와 행렬 'b'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndDeQuantize <W 확장 숫자> | |
QuantizedMatMulWithBiasAndRelu <V> | 바이어스 덧셈과 relu 융합을 사용하여 행렬 'b'로 'a'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndReluAndReQuantize <W> | 바이어스 덧셈과 relu 및 재양자화 융합을 사용하여 행렬 'b'로 'a'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndReQuantize <W> | |
양자화Reshape <T> | Reshape 작업에 따라 양자화된 텐서를 재구성합니다. |
RaggedBincount <U 확장 번호> | 정수 배열에서 각 값의 발생 횟수를 셉니다. |
RaggedCountSparseOutput <U 확장 숫자> | 비정형 텐서 입력에 대해 희소 출력 Bin 계산을 수행합니다. |
RaggedCross <T, U 확장 숫자> | 텐서 목록에서 특성 교차를 생성하고 이를 RaggedTensor로 반환합니다. |
RaggedFillEmptyRows <T> | |
RaggedFillEmptyRowsGrad <T> | |
RaggedGather <T는 Number, U를 확장합니다> | `indices`에 따라 `params` 축 `0`에서 비정형 슬라이스를 수집합니다. |
RaggedRange <U는 숫자 확장, T는 숫자 확장> | 지정된 숫자 시퀀스를 포함하는 'RaggedTensor'를 반환합니다. |
RaggedTensorFromVariant <U 확장 번호, T> | '변형' Tensor를 'RaggedTensor'로 디코딩합니다. |
RaggedTensorToSparse <U> | `RaggedTensor`를 동일한 값을 가진 `SparseTensor`로 변환합니다. |
비정형TensorToTensor <U> | 비정형 텐서에서 조밀한 텐서를 생성하여 모양을 변경할 수 있습니다. |
비정형TensorToVariant | 'RaggedTensor'를 'variant' Tensor로 인코딩합니다. |
RaggedTensorToVariantGradient <U> | `RaggedTensorToVariant`에 대한 그래디언트를 계산하는 데 사용되는 도우미입니다. |
RandomDatasetV2 | 의사 난수를 반환하는 데이터 세트를 만듭니다. |
RandomIndexShuffle <T는 숫자를 확장합니다> | [0, ..., max_index] 순열에서 '값'의 위치를 출력합니다. |
범위 <T는 숫자를 확장합니다> | 일련의 숫자를 생성합니다. |
계급 | 텐서의 순위를 반환합니다. |
ReadVariableOp <T> | 변수의 값을 읽습니다. |
ReadVariableXlaSplitND <T> | 모든 차원에 걸쳐 리소스 변수 입력 텐서를 분할합니다. |
Rebatch데이터세트 | 배치 크기를 변경하는 데이터세트를 만듭니다. |
RebatchDatasetV2 | 배치 크기를 변경하는 데이터세트를 만듭니다. |
수신 <T> | Recv_device의 send_device로부터 명명된 텐서를 받습니다. |
RecvTPUE임베딩 활성화 | TPU에서 임베딩 활성화를 수신하는 작업입니다. |
모두 줄이기 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 및"를 계산합니다. |
모두 감소 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 or"를 계산합니다. |
최대 감소 <T> | 텐서의 차원 전체에서 요소의 최대값을 계산합니다. |
최소 감소 <T> | 텐서의 차원 전체에서 최소 요소를 계산합니다. |
감소생산 <T> | 텐서의 차원에 걸쳐 요소의 곱을 계산합니다. |
합계 감소 <T> | 텐서의 차원 전체에 걸쳐 요소의 합을 계산합니다. |
참조입력 <T> | 하위 프레임을 만들거나 찾고 하위 프레임에서 '데이터'를 사용할 수 있도록 합니다. |
RefExit <T> | 현재 프레임을 상위 프레임으로 종료합니다. |
참조 ID <T> | 입력 참조 텐서와 동일한 참조 텐서를 반환합니다. |
참조병합 <T> | 사용 가능한 텐서의 값을 `inputs`에서 `output`으로 전달합니다. |
RefNext반복 <T> | 다음 반복에서 해당 입력을 사용할 수 있도록 합니다. |
참조선택 <T> | `inputs`의 `index` 번째 요소를 `output`으로 전달합니다. |
참조 스위치 <T> | 참조 텐서 'data'를 'pred'에 의해 결정된 출력 포트로 전달합니다. |
데이터세트 등록 | tf.data 서비스에 데이터세트를 등록합니다. |
RegisterDatasetV2 | tf.data 서비스에 데이터세트를 등록합니다. |
릴레이아웃 <T> | |
RelayoutGrad <T> | |
재양자화RangePerChannel | 채널당 재양자화 범위를 계산합니다. |
ReQuantizePerChannel <U> | 채널당 알려진 최소 및 최대 값으로 입력을 다시 양자화합니다. |
모양 변경 <T> | 텐서의 형태를 변경합니다. |
ResourceAccumulatorApplyGradient | 지정된 누산기에 그라데이션을 적용합니다. |
ResourceAccumulatorNumAccumulated | 지정된 누산기에서 집계된 그래디언트 수를 반환합니다. |
ResourceAccumulatorSetGlobalStep | global_step에 대한 새 값으로 누산기를 업데이트합니다. |
ResourceAccumulatorTakeGradient <T> | 주어진 ConditionalAccumulator에서 평균 기울기를 추출합니다. |
리소스ApplyAdagradV2 | adagrad 체계에 따라 '*var'를 업데이트합니다. |
자원ApplyAdamWithAmsgrad | Adam 알고리즘에 따라 '*var'를 업데이트합니다. |
ResourceApplyKeras모멘텀 | 모멘텀 체계에 따라 '*var'를 업데이트합니다. |
자원조건부누산기 | 그라디언트 집계를 위한 조건부 누산기입니다. |
ResourceCountUpTo <T 확장 번호> | 'resource'가 가리키는 변수가 'limit'에 도달할 때까지 증가합니다. |
리소스게더 <U> | `indices`에 따라 `resource`가 가리키는 변수에서 조각을 수집합니다. |
리소스게더Nd <U> | |
자원분산추가 | `resource`가 참조하는 변수에 희소 업데이트를 추가합니다. |
ResourceScatterDiv | 희소 업데이트를 'resource'에서 참조하는 변수로 나눕니다. |
ResourceScatterMax | `max` 작업을 사용하여 `resource`가 참조하는 변수에 대한 희소 업데이트를 줄입니다. |
ResourceScatterMin | 'min' 작업을 사용하여 'resource'가 참조하는 변수에 대한 희소 업데이트를 줄입니다. |
ResourceScatterMul | `resource`가 참조하는 변수에 희소 업데이트를 곱합니다. |
ResourceScatterNdAdd | 변수의 개별 값이나 조각에 희소 추가를 적용합니다. |
자원산란NdMax | |
ResourceScatterNdMin | |
ResourceScatterNdSub | 변수의 개별 값이나 조각에 희소 빼기를 적용합니다. |
ResourceScatterNdUpdate | 특정 값 내의 개별 값이나 조각에 희박한 '업데이트'를 적용합니다. '인덱스'에 따라 변수가 달라집니다. |
ResourceScatterSub | `resource`가 참조하는 변수에서 희소 업데이트를 뺍니다. |
ResourceScatter업데이트 | `resource`가 참조하는 변수에 희소 업데이트를 할당합니다. |
ResourceSparseApplyAdagradV2 | adagrad 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다. |
ResourceSparseApplyKerasMomentum | 모멘텀 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다. |
ResourceStridedSlice할당 | 'ref'의 슬라이스된 l-value 참조에 'value'를 할당합니다. |
모든 TPUEmbedding매개변수 검색 | 호스트 메모리 임베딩에서 최적화 매개변수를 검색하는 작업입니다. |
TPUEmbeddingADAM매개변수 검색 | ADAM 내장 매개변수를 검색합니다. |
TPUEmbeddingAdadelta매개변수 검색 | Adadelta 임베딩 매개변수를 검색합니다. |
TPUEmbeddingAdagradMomentum매개변수 검색 | Adagrad Momentum 임베딩 매개변수를 검색합니다. |
TPUEmbeddingAdagrad매개변수 검색 | Adagrad 임베딩 매개변수를 검색합니다. |
TPUEmbeddingCenteredRMSProp매개변수 검색 | 중앙에 위치한 RMSProp 임베딩 매개변수를 검색합니다. |
TPUEmbeddingFTRL매개변수 검색 | FTRL 임베딩 매개변수를 검색합니다. |
TPUEmbeddingFrequencyEstimatorParameters 검색 | 주파수 추정기 임베딩 매개변수를 검색합니다. |
TPUEmbeddingMDLadagradLight매개변수 검색 | MDL Adagrad Light 임베딩 매개변수를 검색합니다. |
TPUEmbeddingMomentum매개변수 검색 | Momentum 임베딩 매개변수를 검색합니다. |
TPUEmbeddingProximalAdagrad매개변수 검색 | 근위 Adagrad 임베딩 매개변수를 검색합니다. |
TPUEmbeddingProximalYogi매개변수 검색 | |
TPUEmbeddingRMSProp매개변수 검색 | RMSProp 임베딩 매개변수를 검색합니다. |
TPUEmbeddingStochasticGradientDescentParameters 검색 | SGD 내장 매개변수를 검색합니다. |
역방향 <T> | 텐서의 특정 차원을 반대로 바꿉니다. |
역순 <T> | 가변 길이 슬라이스를 반전합니다. |
RewriteDataset | |
RiscAbs <T는 숫자를 확장합니다> | |
RiscAdd <T는 숫자를 확장합니다> | x + y 요소를 반환합니다. |
RiscBinaryArithmetic <T는 숫자를 확장합니다> | |
Risc이진비교 | |
RiscBitcast <U> | |
위험방송 <T> | |
리스캐스트 <U> | |
RiscCeil <T는 숫자를 확장합니다> | |
RiscCholesky <T는 숫자를 확장합니다> | |
RiscConcat <T> | |
RiscConv <T 확장 번호> | |
RiscCos <T 확장 번호> | |
RiscDiv <T는 숫자를 확장합니다> | |
RiscDot <T는 숫자를 확장합니다> | |
RiscExp <T는 숫자를 확장합니다> | |
위험Fft <T> | |
RiscFloor <T는 숫자를 확장합니다> | |
리스크게더 <T> | |
RiscImag <U 확장 번호> | |
RiscIsFinite | |
RiscLog <T 확장 번호> | |
위험논리적그리고 | |
위험논리적 아님 | |
위험논리적또는 | |
RiscMax <T는 숫자를 확장합니다> | max(x, y) 요소별로 반환합니다. |
RiscMin <T 확장 번호> | |
RiscMul <T는 숫자를 확장합니다> | |
RiscNeg <T는 숫자를 확장합니다> | |
RiscPad <T는 숫자를 확장합니다> | |
RiscPool <T는 숫자를 확장합니다> | |
RiscPow <T는 숫자를 확장합니다> | |
RiscRandomUniform | |
RiscReal <U 확장 숫자> | |
RiscReduce <T는 숫자를 확장합니다> | |
RiscRem <T는 숫자를 확장합니다> | |
RiscReshape <T는 숫자를 확장합니다> | |
RiscReverse <T는 숫자를 확장합니다> | |
RiscScatter <U 확장 번호> | |
RiscShape <U 확장 숫자> | |
RiscSign <T는 숫자를 확장합니다> | |
RiscSlice <T는 숫자를 확장합니다> | |
RiscSort <T는 숫자를 확장함> | |
리스크스퀴즈 <T> | |
RiscSub <T는 숫자를 확장합니다> | |
RiscTranspose <T> | |
RiscTriangularSolve <T는 숫자를 확장합니다> | |
RiscUnary <T는 숫자를 확장합니다> | |
Rng읽기 및 건너뛰기 | 카운터 기반 RNG의 카운터를 향상시킵니다. |
RngSkip | 카운터 기반 RNG의 카운터를 향상시킵니다. |
롤 <T> | 축을 따라 텐서의 요소를 굴립니다. |
샘플링데이터세트 | 다른 데이터세트 콘텐츠의 Bernoulli 샘플을 사용하는 데이터세트를 만듭니다. |
축척 및 번역 | |
ScaleAndTranslateGrad <T는 숫자를 확장합니다> | |
분산추가 <T> | 변수 참조에 희소 업데이트를 추가합니다. |
ScatterDiv <T> | 변수 참조를 희소 업데이트로 나눕니다. |
ScatterMax <T는 숫자를 확장합니다> | 'max' 작업을 사용하여 희소 업데이트를 변수 참조로 줄입니다. |
ScatterMin <T는 숫자를 확장합니다> | 'min' 작업을 사용하여 희소 업데이트를 변수 참조로 줄입니다. |
스캐터뮬 <T> | 희소 업데이트를 변수 참조에 곱합니다. |
분산형 <U> | '인덱스'에 따라 '업데이트'를 모양 'shape'의 텐서로 분산시킵니다. |
분산Nd추가 <T> | 변수의 개별 값이나 조각에 희소 추가를 적용합니다. |
ScatterNdMax <T> | 요소별 최대값을 계산합니다. |
분산NdMin <T> | 요소별 최소값을 계산합니다. |
ScatterNdNonAliasingAdd <T> | 개별 값이나 조각을 사용하여 '입력'에 희소 추가를 적용합니다. 인덱스 `인덱스`에 따른 `업데이트`에서. |
ScatterNdSub <T> | 변수의 개별 값이나 조각에 희소 빼기를 적용합니다. |
ScatterNdUpdate <T> | 특정 값 내의 개별 값이나 조각에 희박한 '업데이트'를 적용합니다. '인덱스'에 따라 변수가 달라집니다. |
ScatterSub <T> | 변수 참조에 대한 희소 업데이트를 뺍니다. |
분산 업데이트 <T> | 변수 참조에 스파스 업데이트를 적용합니다. |
SegmentMaxV2 <T는 숫자를 확장함> | 텐서의 세그먼트를 따라 최대값을 계산합니다. |
SegmentMinV2 <T 확장 번호> | 텐서의 세그먼트를 따라 최소값을 계산합니다. |
SegmentProdV2 <T> | 텐서의 세그먼트를 따라 곱을 계산합니다. |
SegmentSumV2 <T> | 텐서의 세그먼트를 따라 합계를 계산합니다. |
선택V2 <T> | |
보내다 | send_device에서 recv_device로 명명된 텐서를 보냅니다. |
SendTPUE임베딩그라디언트 | 임베딩 테이블의 그라데이션 업데이트를 수행합니다. |
SetDiff1d <T, U 확장 숫자> | 두 숫자 또는 문자열 목록 간의 차이를 계산합니다. |
크기 설정 | 입력 `세트`의 마지막 차원에 따른 고유 요소 수입니다. |
모양 <U 확장 번호> | 텐서의 형태를 반환합니다. |
ShapeN <U 확장 숫자> | 텐서의 형태를 반환합니다. |
샤드데이터세트 | 이 데이터 세트의 1/`num_shards`만 포함하는 `데이터 세트`를 생성합니다. |
ShuffleAndRepeatDatasetV2 | |
ShuffleDatasetV2 | |
ShuffleDatasetV3 | |
종료분산TPU | 실행 중인 분산 TPU 시스템을 종료합니다. |
종료TPU시스템 | TPU 시스템을 종료하는 작업입니다. |
크기 <U 확장 번호> | 텐서의 크기를 반환합니다. |
스킵그램 | 텍스트 파일을 구문 분석하고 예제 배치를 만듭니다. |
SleepDataset | |
슬라이스 <T> | 'input'에서 슬라이스를 반환합니다. |
SlidingWindowDataset | `input_dataset`에 대한 슬라이딩 윈도우를 전달하는 데이터세트를 생성합니다. |
스냅샷 <T> | 입력 텐서의 복사본을 반환합니다. |
스냅샷 데이터세트 | 스냅샷에 쓰거나 스냅샷에서 읽을 데이터세트를 생성합니다. |
SnapshotDatasetReader | |
스냅샷NestedDatasetReader | |
SobolSample <T 확장 번호> | Sobol 시퀀스에서 포인트를 생성합니다. |
SpaceToBatchNd <T> | T 유형의 ND 텐서에 대한 SpaceToBatch. |
SparseApplyAdagradV2 <T> | adagrad 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다. |
SparseBincount <U 확장 숫자> | 정수 배열에서 각 값의 발생 횟수를 셉니다. |
SparseCountSparseOutput <U 확장 숫자> | 희소 텐서 입력에 대해 희소 출력 Bin 계산을 수행합니다. |
SparseCrossHashed | 희소 및 조밀 텐서 목록에서 희소 교차를 생성합니다. |
SparseCrossV2 | 희소 및 조밀 텐서 목록에서 희소 교차를 생성합니다. |
희소행렬추가 | 두 개의 CSR 행렬의 희소 추가, C = 알파 * A + 베타 * B. |
SparseMatrixMatMul <T> | 희소 행렬과 조밀한 행렬을 행렬 곱합니다. |
SparseMatrixMul | 희소 행렬과 조밀한 텐서의 요소별 곱셈입니다. |
스파스매트릭스NNZ | `sparse_matrix`의 0이 아닌 개수를 반환합니다. |
SparseMatrix주문AMD | '입력'의 AMD(근사 최소 차수) 순서를 계산합니다. |
SparseMatrix소프트맥스 | CSRSparseMatrix의 소프트맥스를 계산합니다. |
SparseMatrixSoftmaxGrad | SparseMatrixSoftmax 연산의 기울기를 계산합니다. |
희소행렬SparseCholesky | '입력'의 희소 Cholesky 분해를 계산합니다. |
SparseMatrixSparseMatMul | 희소 행렬은 두 개의 CSR 행렬 'a'와 'b'를 곱합니다. |
희소행렬전치 | CSRSparseMatrix의 내부(행렬) 차원을 바꿉니다. |
SparseMatrixZeros | 'dense_shape' 형태로 모두 0인 CSRSparseMatrix를 생성합니다. |
SparseSegmentSumGrad <T는 숫자를 확장합니다> | SparseSegmentSum에 대한 기울기를 계산합니다. |
SparseTensorToCSRSparseMatrix | SparseTensor를 (아마도 일괄 처리된) CSRSparseMatrix로 변환합니다. |
스펜스 <T 확장 번호> | |
분할 <T> | 텐서를 하나의 차원을 따라 `num_split` 텐서로 분할합니다. |
SplitDedupData <T는 숫자 확장, U는 숫자 확장> | 연산은 입력 중복 제거 데이터 XLA 튜플을 정수 및 부동 소수점 텐서로 분할합니다. |
분할V <T> | 텐서를 하나의 차원을 따라 `num_split` 텐서로 분할합니다. |
짜내기 <T> | 텐서의 모양에서 크기 1의 차원을 제거합니다. |
스택 <T> | `N` 순위-`R` 텐서 목록을 하나의 순위-`(R+1)` 텐서로 압축합니다. |
단계 | 경량 Enqueue와 유사한 단계 값입니다. |
스테이지클리어 | Op는 기본 컨테이너의 모든 요소를 제거합니다. |
스테이지픽 | Op는 지정된 인덱스의 값을 피킹합니다. |
스테이지 크기 | Op는 기본 컨테이너의 요소 수를 반환합니다. |
StatefulRandomBinomial <V 확장 숫자> | |
StatefulStandardNormal <U> | 정규 분포에서 임의의 값을 출력합니다. |
StatefulStandardNormalV2 <U> | 정규 분포에서 임의의 값을 출력합니다. |
StatefulTruncatedNormal <U> | 잘린 정규 분포에서 임의의 값을 출력합니다. |
StatefulUniform <U> | 균일 분포에서 임의의 값을 출력합니다. |
StatefulUniformFullInt <U> | 균일 분포에서 임의의 정수를 출력합니다. |
StatefulUniformInt <U> | 균일 분포에서 임의의 정수를 출력합니다. |
StatelessParameterizedTruncatedNormal <V 확장 숫자> | |
StatelessRandomBinomial <W 확장 숫자> | 이항 분포에서 결정론적 의사 난수를 출력합니다. |
StatelessRandomGammaV2 <V 확장 숫자> | 감마 분포에서 결정론적 의사 난수를 출력합니다. |
StatelessRandomGammaV3 <U 확장 번호> | 감마 분포에서 결정론적 의사 난수를 출력합니다. |
StatelessRandomGetAlg | 장치에 따라 최고의 카운터 기반 RNG 알고리즘을 선택합니다. |
StatelessRandomGetKeyCounter | 장치 기반 최고의 알고리즘을 사용하여 시드를 키와 카운터로 스크램블합니다. |
StatelessRandomGetKeyCounterAlg | 장치를 기반으로 최상의 알고리즘을 선택하고 시드를 키와 카운터에 스크램블합니다. |
StatelessRandomNormalV2 <U 확장 번호> | 정규 분포에서 결정론적 의사 난수 값을 출력합니다. |
StatelessRandomPoisson <W 확장 번호> | 포아송 분포에서 결정론적 의사 난수를 출력합니다. |
StatelessRandomUniformFullInt <V 확장 번호> | 균일 분포에서 결정론적 의사 난수 난수를 출력합니다. |
StatelessRandomUniformFullIntV2 <U 확장 번호> | 균일 분포에서 결정론적 의사 난수 난수를 출력합니다. |
StatelessRandomUniformIntV2 <U 확장 번호> | 균일 분포에서 결정론적 의사 난수 난수를 출력합니다. |
StatelessRandomUniformV2 <U 확장 번호> | 균일 분포에서 결정적 의사 난수 난수 값을 출력합니다. |
StatelessSampleDistortedBoundingBox <T는 숫자를 확장합니다> | 결정론적으로 이미지에 대해 무작위로 왜곡된 경계 상자를 생성합니다. |
StatelessShuffle <T> | 첫 번째 차원을 따라 텐서를 무작위로 결정론적으로 섞습니다. |
StatelessTruncatedNormalV2 <U 확장 번호> | 잘린 정규 분포에서 결정론적 의사 난수 값을 출력합니다. |
StatsAggregatorHandleV2 | |
StatsAggregatorSetSummaryWriter | 주어진 stats_aggregator를 사용하여 통계를 기록하려면 summary_writer_interface를 설정하세요. |
정지그라디언트 <T> | 그라데이션 계산을 중지합니다. |
Strided슬라이스 <T> | `input`에서 스트라이드 슬라이스를 반환합니다. |
StridedSliceAssign <T> | 'ref'의 슬라이스된 l-value 참조에 'value'를 할당합니다. |
StridedSliceGrad <U> | 'StridedSlice'의 그래디언트를 반환합니다. |
문자열낮음 | 모든 대문자를 해당 소문자 대체 문자로 변환합니다. |
StringNGrams <T는 숫자를 확장합니다> | 비정형 문자열 데이터에서 ngram을 생성합니다. |
문자열어퍼 | 모든 소문자를 해당 대문자로 변환합니다. |
합계 <T> | 텐서의 차원 전체에 걸쳐 요소의 합을 계산합니다. |
스위치컨드 <T> | `pred`에 의해 결정된 출력 포트로 `데이터`를 전달합니다. |
동기화 장치 | 이 작업이 실행되는 장치를 동기화합니다. |
TPU컴파일 결과 | TPU 컴파일 결과를 반환합니다. |
TPU컴파일 성공어설션 | 컴파일이 성공했다고 어설션합니다. |
TPU임베딩 활성화 | TPU 임베딩을 차별화할 수 있는 작업입니다. |
TPU실행 | TPU 기기에서 TPU 프로그램을 로드하고 실행하는 Op입니다. |
TPUExecuteAndUpdate변수 | 선택적 내부 변수 업데이트를 사용하여 프로그램을 실행하는 Op입니다. |
TPUOrdinalSelector | TPU 코어 선택기 Op. |
TPUPartitionedInput <T> | 분할된 입력 목록을 함께 그룹화하는 작업입니다. |
TPUPartitionedInputV2 <T> | 분할된 입력 목록을 함께 그룹화하는 작업입니다. |
TPUPartitionedOutput <T> | XLA에 의해 분할될 텐서를 분할된 목록으로 역다중화하는 작업입니다. XLA 계산 외부로 출력됩니다. |
TPUPartitionedOutputV2 <T> | XLA에 의해 분할될 텐서를 분할된 목록으로 역다중화하는 작업입니다. XLA 계산 외부로 출력됩니다. |
TPUReplicate메타데이터 | TPU 계산을 복제하는 방법을 나타내는 메타데이터입니다. |
TPUReplicatedInput <T> | N개의 입력을 N방향 복제 TPU 계산에 연결합니다. |
TPUReplicatedOutput <T> | N 방향으로 복제된 TPU 계산의 N 출력을 연결합니다. |
TPUReshard변수 | 기기 내 TPU 변수를 지정된 상태로 리샤딩하는 작업입니다. |
TPU라운드로빈 | TPU 코어의 라운드 로빈 부하 분산. |
임시변수 <T> | 변경될 수 있지만 단일 단계 내에서만 지속되는 텐서를 반환합니다. |
텐서어레이 | 주어진 크기의 Tensor 배열. |
텐서어레이닫기 | 리소스 컨테이너에서 TensorArray를 삭제합니다. |
TensorArrayConcat <T> | TensorArray의 요소를 'value' 값으로 연결합니다. |
TensorArrayGather <T> | TensorArray의 특정 요소를 출력 '값'으로 수집합니다. |
TensorArrayGrad | 지정된 핸들에 값의 기울기를 저장하기 위한 TensorArray를 만듭니다. |
TensorArrayGradWithShape | 지정된 핸들에 값의 여러 기울기를 저장하기 위한 TensorArray를 만듭니다. |
TensorArrayPack <T> | |
TensorArrayRead <T> | TensorArray의 요소를 읽어 '값'을 출력합니다. |
TensorArrayScatter | 입력 값의 데이터를 특정 TensorArray 요소로 분산시킵니다. |
텐서배열크기 | TensorArray의 현재 크기를 가져옵니다. |
텐서어레이분할 | 입력 값의 데이터를 TensorArray 요소로 분할합니다. |
TensorArrayUnpack | |
텐서어레이쓰기 | tensor_array에 요소를 푸시합니다. |
TensorListConcat <T> | 0차원을 따라 목록의 모든 텐서를 연결합니다. |
TensorListConcatLists | |
TensorListConcatV2 <U> | 0차원을 따라 목록의 모든 텐서를 연결합니다. |
TensorListElementShape <T는 숫자를 확장합니다> | 텐서로서 주어진 목록의 요소 모양입니다. |
TensorListFromTensor | 쌓이면 `tensor` 값을 갖는 TensorList를 생성합니다. |
TensorListGather <T> | TensorList를 인덱싱하여 Tensor를 생성합니다. |
TensorListGetItem <T> | |
TensorList길이 | 입력 텐서 목록의 텐서 수를 반환합니다. |
TensorListPopBack <T> | 입력 목록의 마지막 요소와 해당 요소를 제외한 모든 요소가 포함된 목록을 반환합니다. |
TensorList푸시백 | 전달된 'Tensor'를 마지막 요소로 포함하고 주어진 목록의 다른 요소를 'input_handle'에 포함하는 목록을 반환합니다. |
TensorListPushBackBatch | |
TensorListReserve | 빈 요소가 있는 지정된 크기의 목록입니다. |
TensorList크기 조정 | 목록의 크기를 조정합니다. |
TensorListScatter | Tensor를 인덱싱하여 TensorList를 생성합니다. |
TensorListScatterIntoExistingList | 입력 목록의 인덱스에 텐서를 분산시킵니다. |
TensorListScatterV2 | Tensor를 인덱싱하여 TensorList를 생성합니다. |
TensorListSetItem | |
TensorList분할 | 텐서를 목록으로 분할합니다. |
텐서리스트스택 <T> | 목록의 모든 텐서를 스택합니다. |
텐서맵 지우기 | 주어진 키의 항목이 지워진 텐서 맵을 반환합니다. |
TensorMapHasKey | 주어진 키가 맵에 존재하는지 여부를 반환합니다. |
텐서맵삽입 | 주어진 키-값 쌍이 삽입된 'input_handle'인 맵을 반환합니다. |
TensorMapLookup <U> | 텐서 맵의 특정 키에서 값을 반환합니다. |
텐서맵 크기 | 입력 텐서 맵의 텐서 수를 반환합니다. |
TensorMapStack키 <T> | 텐서 맵에 있는 모든 키의 텐서 스택을 반환합니다. |
TensorScatter추가 <T> | '인덱스'에 따라 기존 텐서에 희박한 '업데이트'를 추가합니다. |
TensorScatterMax <T> | 요소별 최대값을 취하는 텐서에 희소 업데이트를 적용합니다. |
TensorScatterMin <T> | |
TensorScatterSub <T> | '인덱스'에 따라 기존 텐서에서 희박한 '업데이트'를 뺍니다. |
TensorScatterUpdate <T> | '인덱스'에 따라 기존 텐서에 '업데이트'를 분산시킵니다. |
TensorStridedSliceUpdate <T> | 'input'의 분할된 l-value 참조에 'value'를 할당합니다. |
ThreadPool데이터세트 | 사용자 정의 스레드 풀을 사용하여 'input_dataset'을 계산하는 데이터 세트를 생성합니다. |
ThreadPoolHandle | 사용자 정의 스레드 풀을 사용하여 'input_dataset'을 계산하는 데이터 세트를 생성합니다. |
타일 <T> | 주어진 텐서를 타일링하여 텐서를 구성합니다. |
타임스탬프 | 에포크 이후의 시간을 초 단위로 제공합니다. |
ToBool | 텐서를 스칼라 조건자로 변환합니다. |
TopK유니크 | 정렬된 순서로 배열의 TopK 고유 값을 반환합니다. |
TopKWith고유 | 배열의 TopK 값을 정렬된 순서로 반환합니다. |
TpuHandleToProtoKey | XRT의 uid 핸들을 TensorFlow 친화적인 입력 형식으로 변환합니다. |
TridiagonalMatMul <T> | 삼중대각 행렬을 사용하여 곱을 계산합니다. |
삼중대각 해결 <T> | 방정식의 삼중대각 시스템을 해결합니다. |
배치 해제 <T> | 단일 출력 Tensor에 대한 Batch 작업을 반대로 합니다. |
UnbatchGrad <T> | Unbatch의 그라데이션. |
압축 해제 요소 | 압축된 데이터 세트 요소를 압축 해제합니다. |
UnicodeDecode <T는 숫자를 확장합니다> | 'input'의 각 문자열을 일련의 유니코드 코드 포인트로 디코딩합니다. |
유니코드인코드 | int의 텐서를 유니코드 문자열로 인코딩합니다. |
UniformDeQuantize <U 확장 번호> | 양자화된 Tensor `입력`에 대해 역양자화를 수행합니다. |
균일퀀타이즈 <U> | Tensor `input`에 대해 양자화를 수행합니다. |
균일양자화추가 <T> | 양자화된 '출력'을 만들기 위해 양자화된 Tensor 'lhs'와 양자화된 Tensor 'rhs'의 양자화된 추가를 수행합니다. |
균일QuantizedClipByValue <T> | 양자화된 Tensor '피연산자'의 값별로 클립을 수행합니다. |
균일양자화 컨볼루션 <U> | 양자화된 텐서 'lhs'와 양자화된 텐서 'rhs'의 양자화된 컨볼루션을 수행합니다. |
UniformQuantizedConvolutionHybrid <V 확장 번호> | float Tensor 'lhs'와 양자화 Tensor 'rhs'의 하이브리드 양자화 컨볼루션을 수행합니다. |
균일양자화점 <U> | 양자화된 '출력'을 만들기 위해 양자화된 Tensor 'lhs'와 양자화된 Tensor 'rhs'의 양자화된 점을 수행합니다. |
UniformQuantizedDotHybrid <V 확장 번호> | 부동 텐서 'lhs'와 양자화 텐서 'rhs'의 하이브리드 양자화 도트를 수행합니다. |
균일재양자화 <U> | 양자화된 텐서 `입력`이 주어지면 이를 새로운 양자화 매개변수로 다시 양자화합니다. |
고유 <T, V 확장 번호> | 텐서의 축을 따라 고유한 요소를 찾습니다. |
고유 데이터세트 | 'input_dataset'의 고유 요소가 포함된 데이터세트를 생성합니다. |
UniqueWithCounts <T, V 확장 숫자> | 텐서의 축을 따라 고유한 요소를 찾습니다. |
UnravelIndex <T는 숫자를 확장합니다> | 평면 인덱스 배열을 좌표 배열 튜플로 변환합니다. |
정렬되지 않은세그먼트 조인 | |
언스택 <T> | 순위-`R` 텐서의 주어진 차원을 `num` 순위-`(R-1)` 텐서로 압축 해제합니다. |
언스테이지 | Op는 경량 Dequeue와 유사합니다. |
UnwrapDatasetVariant | |
UpperBound <U 확장 번호> | 각 행을 따라 upper_bound(sorted_search_values,values)를 적용합니다. |
VarHandleOp | 변수 리소스에 대한 핸들을 만듭니다. |
VarIsInitializedOp | 리소스 핸들 기반 변수가 초기화되었는지 확인합니다. |
변수 <T> | 여러 단계에 걸쳐 지속되는 텐서 형태로 상태를 유지합니다. |
VariableShape <T는 숫자를 확장함> | `resource`가 가리키는 변수의 형태를 반환합니다. |
어디 | 텐서에서 0이 아닌 값/참 값의 위치를 반환합니다. |
여기서3 <T> | `조건`에 따라 `x` 또는 `y`에서 요소를 선택합니다. |
창작동 | |
작업자하트비트 | 작업자의 심장박동 op. |
WrapDatasetVariant | |
WriteRawProto요약 | 직렬화된 proto 요약을 작성합니다. |
XlaConcatND <T> | 모든 차원에 걸쳐 입력 텐서를 연결합니다. |
XlaRecvFromHost <T> | 호스트로부터 텐서를 수신하는 연산입니다. |
XlaRecvTPUE임베딩 활성화 | TPU에서 임베딩 활성화를 수신하는 작업입니다. |
XlaRecvTPUE임베딩중복제거데이터 | 임베딩 코어로부터 중복 제거 데이터(인덱스 및 가중치)를 수신합니다. |
XlaSendTPUEmbedding그라디언트 | 임베딩 테이블의 그라데이션 업데이트를 수행하는 작업입니다. |
Xla호스트에게 보내기 | 텐서를 호스트에 보내는 작업입니다. |
XlaSplitND <T> | 모든 차원에 걸쳐 입력 텐서를 분할합니다. |
Xlog1py <T> | x == 0이면 0을 반환하고, 그렇지 않으면 요소별로 x * log1p(y)를 반환합니다. |
0 <T> | `dims`에 의해 주어진 모양의 0으로 초기화된 상수를 생성하는 연산자입니다. |
제로라이크 <T> | x와 모양과 유형이 동일한 0의 텐서를 반환합니다. |