Skip to content

關於GPT程式 #22

@tilly963963

Description

@tilly963963

您好~我想請問一下
1.模型輸入的seqs[:,:-1]是過去的一句話,而seqs[:,-1]是需要預測的真實值,但是如果句子沒有那麼長,之後會被padding與長度最長的句子數量相同,seqs[:,-1]不就都拿到padding值嗎~~
2.若設計為每一批次以最長句子而非整個文本最長句子為該批次的step長度(時間長度),能解決上述問題嗎?
希望收到您的回覆!!!!!!!!!!!!!!!!!!!!謝謝

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions