【一些笔记】go 1.23 版本工程中的重点内容

速通go 1.23

go 1.23更新了几个星期了,在刚发布的时候就在自己公司内部做了分享,然后就一直在忙其他的事,现在想起来了把文档发到鱼排与鱼油们分享一下

快速阅览

  • linkename被禁用,1.23后没办法使用了

但是有逃生通道 --checklinkname=0 来关闭检查

  • encoding/binary
    • 新增Encode、Decode、Append函数
// 将多个数据编排到一起dd
func Append(buf []byte, order ByteOrder, data any) ([]byte, error)

// 将给定的字节以给定的字节序编码到buf中,buf太小会返回错误,不然返回写入的字节数
func Encode(buf []byte, order ByteOrder, data any) (int, error)

// 将给定的二进制数据从buf解码到data中,以给定的字节序进行解码。buf太小会返回,不然返回从buf中消耗的字节数。
func Decode(buf []byte, order ByteOrder, data any) (int, error)
  • 标准库新包 structs

作为一个标记类型,用来标记当前结构体是使用当前系统的内存布局,而不是使用go的内存布局

  • net 包新增了一个 KeepAliveConfig 的结构体

可以更细粒度的设置KeepAlive

type KeepAliveConfig struct {
	// If Enable is true, keep-alive probes are enabled.
	Enable bool

	// Idle is the time that the connection must be idle before
	// the first keep-alive probe is sent.
	// If zero, a default value of 15 seconds is used.
	Idle time.Duration

	// Interval is the time between keep-alive probes.
	// If zero, a default value of 15 seconds is used.
	Interval time.Duration

	// Count is the maximum number of keep-alive probes that
	// can go unanswered before dropping a connection.
	// If zero, a default value of 9 is used.
	Count int
}
  • net 包给 DNSError 新增上下文超时或取消引起的错误信息

例如:errors.Is(someDNSErr, context.DeadlineExceedeed)

  • net/http
    • Cookie 类型
      • Request 新增方法 CookiesNamed 来根据Cookie名获取指定的Cookie
      • Cookie 字符串Parse后会保留值的引号,还新增了Cookie.Quete字段,用来确认Cookie.Value是否存在引号
      • 新增了Partitioned字段用来区分Cookie 目前不知道有啥用
      • 新增了两个函数 ParseCookieParseSetCookie 用来Parse Cookie
func ParseCookie(line string) ([]*Cookie, error)
func ParseSetCookie(line string) (*Cookie, error)
  • net/netip

修复 reflect.DeepEqual 行为与其他比较函数比较结果不一致的bug

  • runtime/pprof

alloc、mutex、block、threadcreate和goroutine配置文件的最大堆栈深度已从32提高至128帧

  • runtime/trace

panic提供更完全的跟踪信息

  • slices

新增Repeat函数根据给定次数重复生成给定切片内容

func Repeat[S ~[]E, E any](x S, count int) S
  • sync

Map新增Clear函数

func (m *Map) Clear()
  • time

现在Parse和ParseLocation会在时区偏移超出时返回错误

  • os.CopyFS

递归复制一个目录到另一个目录

src := os.DirFS("/foo/")
dst := "/bar/"

err := os.CopyFS(dst, src)
if err != nil {
	panic(err)
}

fmt.Printf("copied %s to %s\n", src, dst)
  • system
    • Macos需要macOS 11 Big Sur及以上的版本才能运行1.23
    • 1.23是最后支持linux kernel 2.6.32的版本,1.24开始将需要linux kernel 3.17及以上的版本

计时器

1.23的计时器 time.Timertime.Ticker 修复了两个重要问题,一个是释放问题一个是重置问题

释放问题

time.After 在1.23之前循环使用是一个不安全的行为,可能会造成大量的内存得不到释放

// go 1.22

type token struct{}

func consumer(ctx context.Context, in <-chan token) {
    for {
        select {
        case <-in:
        // do stuff
        case <-time.After(time.Hour):
        // log warning
        case <-ctx.Done():
            return
        }
    }
}

// 返回gc后的堆的字节大小
func getAlloc() uint64 {
    var m runtime.MemStats
    runtime.GC()
    runtime.ReadMemStats(&m)
    return m.Alloc
}

func main() {
    ctx, cancel := context.WithCancel(context.Background())
    defer cancel()

    tokens := make(chan token)
    go consumer(ctx, tokens)

    memBefore := getAlloc()

    // 循环10万次
    for range 100000 {
        tokens <- token{}
    }

    memAfter := getAlloc()
    memUsed := memAfter - memBefore
    fmt.Printf("Memory used: %d KB\n", memUsed/1024) // Memory used: 24477 KB
}

原因是 time.After 会创建一个触发了才会释放的计时器,由于使用了较大的时间(这里是一个小时) consumer 会创建大量还没有触发的计时器,因此gc没办法把它们释放掉,只能等到它们触发后才释放

到1.23后这个行为被修复了,所有的 time.Timertime.Ticker 都将在没有被引用的时候释放,不会等到 触发了才释放(time.Aftertime.Timer 的封装),所以在1.23循环使用是一个安全的行为

// go 1.23

func main() {
    ctx, cancel := context.WithCancel(context.Background())
    defer cancel()

    tokens := make(chan token)
    go consumer(ctx, tokens)

    memBefore := getAlloc()

    // 循环10万次
    for range 100000 {
        tokens <- token{}
    }

    memAfter := getAlloc()
    memUsed := memAfter - memBefore
    fmt.Printf("Memory used: %d KB\n", memUsed/1024) // Memory used: 11 KB
}

重置问题

在1.23以前的版本中,time.Timertime.TickerReset 方法在一些场景上出现非 预期行为

// go 1.22

func main() {
    t := time.NewTimer(10 * time.Millisecond)
    time.Sleep(20 * time.Millisecond)

    start := time.Now()
    t.Reset(timeout)
    <-t.C
    fmt.Printf("Time elapsed: %dms\n", time.Since(start).Milliseconds())
    // Time elapsed: 0ms
}

这里新建的计时器是10毫秒,sleep 20毫秒后这个时候已经超时了,这个时候重置计时器, 预期行为应该是在 <-t.C 上阻塞10毫秒,然后打印 Time elapsed: 10ms ,但这却输出了 Time elapsed: 0ms 这是因为在1.23之前的计时器的信号通道的容量都是1

// go 1.22

package main

import (
    "fmt"
    "time"
)

func main() {
    t := time.NewTimer(time.Second)
    fmt.Printf("cap(t.C): %d\n", cap(t.C)) // cap(t.C): 1
}

当计时器被触发后,就会往 t.C 这个通道发送一个信号,但 Reset 方法并不会排空通道 中的信号,当要读取 t.C 的时,通道里还存有上一次触发的信号,导致重置失败

// go 1.23

func main() {
    t := time.NewTimer(10 * time.Millisecond)
    time.Sleep(20 * time.Millisecond)

    start := time.Now()
    t.Reset(timeout)
    <-t.C
    fmt.Printf("Time elapsed: %dms\n", time.Since(start).Milliseconds())
    fmt.Printf("cap(t.C): %d\n", cap(t.C))
    // Time elapsed: 10ms
    // cap(t.C): 0
}

迭代器接口

1.23添加了 rangefunc 的迭代器接口,以及配套的标准库包 iter, 只要方法或者函数满足以下接口就可以使用 for range 对其迭代

func(yield func())
func(yield func(T))
func(yield func(K, V))

iter 标准库中有对其定义

type Seq[V any] func(yield func(V) bool)
type Seq2[K, V any] func(yield func(K, V) bool)

标准库没有对空参数的yield进行定义,wiki中是存在的,但是发行的时候没有,应该是被去除了

提案中将 Seq 类的迭代器叫 push iterators

// Example
// push iterators

func All[T any](xs []T) iter.Seq[T] {
    var (
        i int
        boundary = len(xs)
    )

    return func(yield func(T) bool) {
        for i < boundary {
            if !yield(xs[i]) {
                return
            }

            i++
        }
    }
}

func main() {
    m := 0
    for n := range All([]int{1, 2, 3}) {
        m += n
        return
    }
}

for range 迭代All函数最终会被编译成

All([]int{1, 2, 3})(func(n int){
    m += n
    return true
})

这只是有让人一个概念,不要真的只当作成这样

这样可以直接使用 for-range 遍历 sync.Map

var m sync.Map

m.Store("alice", 11)
m.Store("bob", 12)
m.Store("cindy", 13)

for key, val := range m.Range {
    fmt.Println(key, val)
}

// alice 11
// bob 12
// cindy 13

iter 标准库中还有两个函数

func Pull[V any](Seq[V]) (next func() (V, bool), stop func())
func Pull2[K, V any](Seq2[K, V]) (next func() (K, V, bool), stop func())

这两个函数在提案中称为 pull iterators 这个函数是将push迭代器转换成类似其他语言的迭代器,next返回值和是否还存在下一个值,stop则是结束迭代器, 在使用stop后next永远都只会返回零值和false

func main() {
    next, stop := iter.Pull(All([]int{1, 2, 3}))
    next() // 1 true
    next() // 2 true
    stop() // stop
    next() // 0 false
    next() // 0 fals
}

配套的新增了以下标准库方法

  • slices
// 将切片转换成iter.Seq2
func All[Slice ~[]E, E any](s Slice) iter.Seq2[int, E]

// example

for i, v := range slices.All([]string{"a", "b", "c"}) {
    fmt.Printf("%d:%v ", i, v)
}
// 0:a 1:b 2:c
// 将切片转成iter.Seq不迭代下标
func Values[Slice ~[]E, E any](s Slice) iter.Seq[E]

// example

for v := range slices.Values([]string{"a", "b", "c"}) {
    fmt.Printf("%v ", v)
}
// a b c
// 从尾部开始遍历
func Backward[Slice ~[]E, E any](s Slice) iter.Seq2[int, E]

// example

for i, v := range slices.Backward([]string{"a", "b", "c"}) {
    fmt.Printf("%d:%v ", i, v)
}
// 2:c 1:b 0:a
// 将iter.Seq转换成切片
func Collect[E any](seq iter.Seq[E]) []E

// example

fmt.Println(slices.Collect(slices.Values([]int{11, 12, 13})))
// [11 12 13]
// 将iter.Seq追加到切片中
func AppendSeq[Slice ~[]E, E any](s Slice, seq iter.Seq[E]) Slice

// example

s1 := []int{11, 12}
s2 := []int{13, 14}
s := slices.AppendSeq(s1, slices.Values(s2))
fmt.Println(s)
// [11 12 13 14]
// 排序iter.Seq到切片中
func Sorted[E cmp.Ordered](seq iter.Seq[E]) []E

// example

s1 := []int{13, 11, 12}
s2 := slices.Sorted(slices.Values(s1))
fmt.Println(s2)
// [11 12 13]
// 排序iter.Seq可以通过函数指定要排序的值
func SortedFunc[E any](seq iter.Seq[E], cmp func(E, E) int) []E

// example

type person struct {
    name string
    age  int
}
s1 := []person{{"cindy", 20}, {"alice", 25}, {"bob", 30}}
compare := func(p1, p2 person) int {
    return cmp.Compare(p1.name, p2.name)
}
s2 := slices.SortedFunc(slices.Values(s1), compare)
fmt.Println(s2)
// [{alice 25} {bob 30} {cindy 20}]

SortedStabFunc 和 SortedFunc 一样,但是算法是使用的 稳定排序算法

// 将切片转换成分块的iter.Seq
func Chunk[Slice ~[]E, E any](s Slice, n int) iter.Seq[Slice] {

// example

s := []int{1, 2, 3, 4, 5}
for v := range slices.Chunk(s, 2) {
    fmt.Printf("%v ", v)
}
// [1 2] [3 4] [5]
  • maps
// 将map转换成iter.Seq2
func All[Map ~map[K]V, K comparable, V any](m Map) iter.Seq2[K, V]

// example

for k, v := range maps.All(map[string]int{"a": 1, "b": 2, "c": 3}) {
    fmt.Printf("%v:%v ", k, v)
}
// a:1 b:2 c:3
// 迭代map中的key
func Keys[Map ~map[K]V, K comparable, V any](m Map) iter.Seq[K]

// example

for k := range maps.Keys(map[string]int{"a": 1, "b": 2, "c": 3}) {
    fmt.Printf("%v ", k)
}
// b c a
// 迭代map中的value
func Values[Map ~map[K]V, K comparable, V any](m Map) iter.Seq[V]

// example

for v := range maps.Values(map[string]int{"a": 1, "b": 2, "c": 3}) {
    fmt.Printf("%v ", v)
}
// 1 2 3
// 将iter.Seq2 插入到map中,会覆盖已有的元素
func Insert[Map ~map[K]V, K comparable, V any](m Map, seq iter.Seq2[K, V])

// example

m1 := map[string]int{"a": 1, "b": 2}
m2 := map[string]int{"b": 12, "c": 3, "d": 4}
maps.Insert(m1, maps.All(m2))
fmt.Println(m1)
// map[a:1 b:12 c:3 d:4]
// 将iter.Seq2收集到新的map
func Collect[K comparable, V any](seq iter.Seq2[K, V]) map[K]V

// example

m1 := map[string]int{"a": 1, "b": 2, "c": 3}
m2 := maps.Collect(maps.All(m1))
fmt.Println(m2)
// map[a:1 b:2 c:3]
  • 注意事项*

    • 使用push迭代器的时候不要带入展开

    怎么展开push迭代器完全由编译器决定,case太多有很多内联优化,直接当作正常循环使用即可

    • push迭代器的yield返回值一定要处理

    yield返回了false还继续调用yield将会panic

    • 不在push迭代器的循环体中使用recover

    循环的时候出现了panic,然后在循环体中recover之后是可以正常使用的,但是这里并不推荐这样做, 因为这个操作就连go团队也不确定是否是正确的操作 所以尽量避免使用这种未确定的操作

    • 不要并发使用pull迭代器的next

    pull迭代器的next并不是并发安全的,并发使用会panic

    • 在使用pull迭代器的时没有将内容迭代完,必须调用stop函数

    使用stop可以让迭代器提前进入结束的状态,避免未定以行为

unique

标准库新增的功能,用于对一个开销大或长期使用的值进行复用的功能,也用与频繁比较的值 假设我们有一个字符串随机生成器

const letterBytes = "abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ"

func randomString(n int) string {
    b := make([]byte, n)
    for i := range b {
        b[i] = letterBytes[rand.Intn(len(letterBytes))]
    }
    return string(b)
}

func wordGen(nDistinct, wordLen int) func() string {
    vocab := make([]string, nDistinct)
    for i := range nDistinct {
        word := randomString(wordLen)
        vocab[i] = word
    }
    return func() string {
        word := vocab[rand.Intn(nDistinct)]
        return strings.Clone(word)
    }
} 

从100个字符串中生成十万个字符串

// 从100个字符串中生成十万个字符串
var words []string

const (
    nWords    int = 1e5
    nDistinct     = 100
    wordLen       = 50
)

func main() {
    generate := wordGen(nDistinct, wordLen)
    memBefore := getAlloc()

    words = make([]string, nWords)
    for i := range nWords {
        words[i] = generate()
    }

    memAfter := getAlloc()
    memUsed := memAfter - memBefore
    fmt.Printf("Memory used: %.2f MB\n", float64(memUsed)/1024/1024)
    // Memory used: 7.63 MB
}

直接使用字符串做存储大约使用了 7.63MB

换成unique来存储


var words []unique.Handle[string]
const (
    nWords    int = 1e5
    nDistinct     = 100
    wordLen       = 50
)

func main() {
    generate := wordGen(nDistinct, wordLen)
    memBefore := getAlloc()

    words = make([]unique.Handle[string], nWords)
    for i := range nWords {
        words[i] = unique.Make(generate())
    }

    memAfter := getAlloc()
    memUsed := memAfter - memBefore
    fmt.Printf("Memory used: %.2f MB\n", float64(memUsed)/1024/1024)
    // Memory used: 0.79 MB
}

只用了 0.79MB 内存占用差了将近十倍,数量越大越明显

进行基准测试,性能提升的也是非常之快

package unique

import (
    "testing"
    "unique"
)

func CreateString() string {
    t := make([]byte, 10e6)
    for i := 0; i < 10e6; i++ {j
        t[i] = 'a'
    }
    return string(t)
}

func EqToken[T string | unique.Handle[string]](t1, t2 T) bool {
    return t1 == t2
}

func BenchmarkEqualString(b *testing.B) {
    Token1 := CreateString()
    Token2 := CreateString()
    TokenUnique1 := unique.Make(Token1)
    TokenUnique2 := unique.Make(Token2)
    b.ResetTimer()
    b.Run("normal", func(b *testing.B) {
        for i := 0; i < b.N; i++ {
            EqToken(Token1, Token2)
        }
    })

    b.Run("unique", func(b *testing.B) {
        for i := 0; i < b.N; i++ {
            EqToken(TokenUnique1, TokenUnique2)
        }
    })
}
// goos: linux
// goarch: amd64
// pkg: test/unique
// cpu: AMD Ryzen 7 5800U with Radeon Graphics       
// BenchmarkEqualString/normal-16              2193            565980 ns/op
// BenchmarkEqualString/normal-16              2226            517478 ns/op
// BenchmarkEqualString/normal-16              2008            559273 ns/op
// BenchmarkEqualString/normal-16              2007            577643 ns/op
// BenchmarkEqualString/normal-16              2226            561853 ns/op
// BenchmarkEqualString/unique-16          1000000000               0.2629 ns/op
// BenchmarkEqualString/unique-16          1000000000               0.2517 ns/op
// BenchmarkEqualString/unique-16          1000000000               0.2431 ns/op
// BenchmarkEqualString/unique-16          1000000000               0.2672 ns/op
// BenchmarkEqualString/unique-16          1000000000               0.2421 ns/op
// PASS
// ok      test/unique     7.646s

unique的实现原理大致为全局并发安全的HashTrieMap + weak pointer,类似与 map[any]*T 其中的 *T 是weak pointer 避免HashTrieMap无限增长,unique会在每次gc后会遍历HashTrieMap将所有指向空指针的weak pointer清理掉

weak pointer这个概念的时候,平常的普通的指针就变成了strong pointer, 当有一个strong pointer在,指向一个值的时候,这个值的引用计数就会+1, 这样只有这个引用计数在变成0的时候这个值才会被gc掉, weak pointer与strong pointer的区别就是weak pointer在指向一个值的时候, 这个值的引用计数并不会+1,好处是引用了一个值,但是这个引 用不会因为影响gc对这个值的回收。 在go 1.24中可能会加入到标准库,go 1.23还只是在go编译器的internal中

  • 注意事项
    • 弱指针本身也是一个值
      弱指针虽然指向其他值不会增加标记或计数,但是其本身也是一个正常的值,本身被其他指针指向的时候也是会产生标记和计数
    • unique.Handle一定要管理好生命周期
      unique.Handle关系着全局HashTrieMap中的弱指针是否能释放,没管理好会出现内存泄漏的风险 不过说是这样说,go是有gc的语言,一般正常业务上是不会出现没办法释放的情况,在go中大概 也就只有协程没办法退出导致的泄漏了,不需要特别担心

atomic number

atomic的数字类型都新增了两个方法,AndOr ,分别对应数字类型的 &| 运算符

const m = 0b100
var n atomic.Int32
n.Store(m)
fmt.Printf("%b -> %b\n", n.Or(0b010), n.Load())
// 100 -> 110
const m = 0b100
var n atomic.Int32
n.Store(m)
fmt.Printf("%b -> %b\n", n.And(0b010), n.Load())
// 100 -> 0

AndOr 两个方法在调用后都会返回之前的值

与这两个方法配套的函数是以两个方法名开头的函数,比如atomic.OrInt32atomic.AndInt32,每个数字类型都有相应的函数

参考引用

https://github.com/golang/go/issues/61405 https://github.com/golang/go/issues/61897 https://tip.golang.org/wiki/RangefuncExperiment#what-if-the-iterator-function-ignores-yield-returning-false https://go.googlesource.com/go/+/refs/changes/41/510541/7/src/cmd/compile/internal/rangefunc/rewrite.go https://cs.opensource.google/go/go/+/master:src/unique/handle.go;bpv=0;bpt=1 https://github.com/golang/go/blob/master/src/runtime/mgc.go#LL865 https://github.com/golang/go/issues/62483 https://tip.golang.org/ref/spec#For_range https://antonz.org/go-1-23/