작은_셰익스피어

  • 설명 :

다양한 셰익스피어 희곡의 셰익스피어 40,000줄. Andrej Karpathy의 블로그 게시물 'The Unreasonable Effectiveness of Recurrent Neural Networks'에서 추천: http://karpathy.github.io/2015/05/21/rnn-effectiveness/

예를 들어 캐릭터 모델링에 사용하려면:

d = tfds.load(name='tiny_shakespeare')['train']
d = d.map(lambda x: tf.strings.unicode_split(x['text'], 'UTF-8'))
# train split includes vocabulary for other splits
vocabulary = sorted(set(next(iter(d)).numpy()))
d = d.map(lambda x: {'cur_char': x[:-1], 'next_char': x[1:]})
d = d.unbatch()
seq_len = 100
batch_size = 2
d = d.batch(seq_len)
d = d.batch(batch_size)
나뉘다
'test' 1
'train' 1
'validation' 1
  • 기능 구조 :
FeaturesDict({
    'text': Text(shape=(), dtype=string),
})
  • 기능 문서 :
특징 수업 모양 D타입 설명
풍모Dict
텍스트 텍스트
  • 인용 :
@misc{
  author={Karpathy, Andrej},
  title={char-rnn},
  year={2015},
  howpublished={\url{https://github.com/karpathy/char-rnn} }
}
,

  • 설명 :

다양한 셰익스피어 희곡의 셰익스피어 40,000줄. Andrej Karpathy의 블로그 게시물 'The Unreasonable Effectiveness of Recurrent Neural Networks'에서 추천: http://karpathy.github.io/2015/05/21/rnn-effectiveness/

예를 들어 캐릭터 모델링에 사용하려면:

d = tfds.load(name='tiny_shakespeare')['train']
d = d.map(lambda x: tf.strings.unicode_split(x['text'], 'UTF-8'))
# train split includes vocabulary for other splits
vocabulary = sorted(set(next(iter(d)).numpy()))
d = d.map(lambda x: {'cur_char': x[:-1], 'next_char': x[1:]})
d = d.unbatch()
seq_len = 100
batch_size = 2
d = d.batch(seq_len)
d = d.batch(batch_size)
나뉘다
'test' 1
'train' 1
'validation' 1
  • 기능 구조 :
FeaturesDict({
    'text': Text(shape=(), dtype=string),
})
  • 기능 문서 :
특징 수업 모양 D타입 설명
풍모Dict
텍스트 텍스트
  • 인용 :
@misc{
  author={Karpathy, Andrej},
  title={char-rnn},
  year={2015},
  howpublished={\url{https://github.com/karpathy/char-rnn} }
}