]> git.saurik.com Git - apple/xnu.git/blobdiff - bsd/sys/mbuf.h
xnu-1699.24.23.tar.gz
[apple/xnu.git] / bsd / sys / mbuf.h
index 2d967834814d25df39e7275f03f25fd72f3ad414..f0d45c565b00a0e1da08723b0b796f78bae7ef52 100644 (file)
@@ -1,15 +1,20 @@
 /*
- * Copyright (c) 2000-2005 Apple Computer, Inc. All rights reserved.
+ * Copyright (c) 1999-2011 Apple Inc. All rights reserved.
+ *
+ * @APPLE_OSREFERENCE_LICENSE_HEADER_START@
  *
- * @APPLE_LICENSE_HEADER_START@
- * 
  * This file contains Original Code and/or Modifications of Original Code
  * as defined in and that are subject to the Apple Public Source License
  * Version 2.0 (the 'License'). You may not use this file except in
- * compliance with the License. Please obtain a copy of the License at
- * http://www.opensource.apple.com/apsl/ and read it before using this
- * file.
- * 
+ * compliance with the License. The rights granted to you under the License
+ * may not be used to create, or enable the creation or redistribution of,
+ * unlawful or unlicensed copies of an Apple operating system, or to
+ * circumvent, violate, or enable the circumvention or violation of, any
+ * terms of an Apple operating system software license agreement.
+ *
+ * Please obtain a copy of the License at
+ * http://www.opensource.apple.com/apsl/ and read it before using this file.
+ *
  * The Original Code and all software distributed under the License are
  * distributed on an 'AS IS' basis, WITHOUT WARRANTY OF ANY KIND, EITHER
  * EXPRESS OR IMPLIED, AND APPLE HEREBY DISCLAIMS ALL SUCH WARRANTIES,
  * FITNESS FOR A PARTICULAR PURPOSE, QUIET ENJOYMENT OR NON-INFRINGEMENT.
  * Please see the License for the specific language governing rights and
  * limitations under the License.
- * 
- * @APPLE_LICENSE_HEADER_END@
+ *
+ * @APPLE_OSREFERENCE_LICENSE_HEADER_END@
  */
 /* Copyright (c) 1998, 1999 Apple Computer, Inc. All Rights Reserved */
 /* Copyright (c) 1995 NeXT Computer, Inc. All Rights Reserved */
-/* 
+/*
  * Mach Operating System
  * Copyright (c) 1987 Carnegie-Mellon University
  * All rights reserved.  The CMU software License Agreement specifies
  * SUCH DAMAGE.
  *
  *     @(#)mbuf.h      8.3 (Berkeley) 1/21/94
- **********************************************************************
- * HISTORY
- * 20-May-95  Mac Gillon (mgillon) at NeXT
- *     New version based on 4.4
- *     Purged old history
+ */
+/*
+ * NOTICE: This file was modified by SPARTA, Inc. in 2005 to introduce
+ * support for mandatory and extensible security protections.  This notice
+ * is included in support of clause 2.2 (b) of the Apple Public License,
+ * Version 2.0.
  */
 
 #ifndef        _SYS_MBUF_H_
 #include <sys/cdefs.h>
 #include <sys/appleapiopts.h>
 
-#ifdef KERNEL_PRIVATE
+#ifdef XNU_KERNEL_PRIVATE
 
 #include <sys/lock.h>
 #include <sys/queue.h>
 
+#if PF_PKTHDR
+#include <net/pf_mtag.h>
+#endif /* PF_PKTHDR */
+
 /*
  * Mbufs are of a single size, MSIZE (machine/param.h), which
  * includes overhead.  An mbuf may add a single "mbuf cluster" of size
- * MCLBYTES (also in machine/param.h), which has no additional overhead
- * and is used instead of the internal data area; this is done when
- * at least MINCLSIZE of data must be stored.
+ * MCLBYTES/MBIGCLBYTES/M16KCLBYTES (also in machine/param.h), which has
+ * no additional overhead and is used instead of the internal data area;
+ * this is done when at least MINCLSIZE of data must be stored.
+ */
+
+/*
+ * The following _MLEN and _MHLEN macros are private to xnu.  Private code
+ * that are outside of xnu must use the mbuf_get_{mlen,mhlen} routines since
+ * the sizes of the structures are dependent upon specific xnu configs.
  */
+#define        _MLEN           (MSIZE - sizeof(struct m_hdr))  /* normal data len */
+#define        _MHLEN          (_MLEN - sizeof(struct pkthdr)) /* data len w/pkthdr */
+
+#define        NMBPBGSHIFT     (MBIGCLSHIFT - MSIZESHIFT)
+#define        NMBPBG          (1 << NMBPBGSHIFT)      /* # of mbufs per big cl */
 
-#define        MLEN            (MSIZE - sizeof(struct m_hdr))  /* normal data len */
-#define        MHLEN           (MLEN - sizeof(struct pkthdr))  /* data len w/pkthdr */
+#define        NCLPBGSHIFT     (MBIGCLSHIFT - MCLSHIFT)
+#define        NCLPBG          (1 << NCLPBGSHIFT)      /* # of cl per big cl */
 
-#define        MINCLSIZE       (MHLEN + MLEN)  /* smallest amount to put in cluster */
-#define        M_MAXCOMPRESS   (MHLEN / 2)     /* max amount to copy for compression */
+#define        NMBPCLSHIFT     (NMBPBGSHIFT - NCLPBGSHIFT)
+#define        NMBPCL          (1 << NMBPCLSHIFT)      /* # of mbufs per cl */
 
-#define NMBPCL         (sizeof(union mcluster) / sizeof(struct mbuf))
+#define        NCLPJCLSHIFT    ((M16KCLSHIFT - MBIGCLSHIFT) + NCLPBGSHIFT)
+#define        NCLPJCL         (1 << NCLPJCLSHIFT)     /* # of cl per jumbo cl */
 
 /*
  * Macros for type conversion
  * mtod(m,t) - convert mbuf pointer to data pointer of correct type
  * dtom(x) -   convert data pointer within mbuf to mbuf pointer (XXX)
- * mtocl(x) -  convert pointer within cluster to cluster index #
- * cltom(x) -  convert cluster # to ptr to beginning of cluster
  */
-#define mtod(m,t)       ((t)m_mtod(m))
-#define dtom(x)         m_dtom(x)
-#define mtocl(x)        m_mtocl(x)
-#define cltom(x)        m_cltom(x)
-
-#define MCLREF(p)       m_mclref(p)
-#define MCLUNREF(p)     m_mclunref(p)
+#define        mtod(m, t)      ((t)m_mtod(m))
+#define        dtom(x)         m_dtom(x)
 
 /* header at beginning of each mbuf: */
 struct m_hdr {
        struct  mbuf *mh_next;          /* next buffer in chain */
        struct  mbuf *mh_nextpkt;       /* next chain in queue/record */
-       long    mh_len;                 /* amount of data in this mbuf */
+       int32_t mh_len;                 /* amount of data in this mbuf */
        caddr_t mh_data;                /* location of data */
        short   mh_type;                /* type of data in this mbuf */
        short   mh_flags;               /* flags; see below */
@@ -126,10 +141,29 @@ struct m_hdr {
  * Packet tag structure (see below for details).
  */
 struct m_tag {
+       u_int64_t               m_tag_cookie;   /* Error checking */
+#ifndef __LP64__
+       u_int32_t               pad;            /* For structure alignment */
+#endif /* !__LP64__ */
        SLIST_ENTRY(m_tag)      m_tag_link;     /* List of packet tags */
-       u_int16_t                       m_tag_type;     /* Module specific type */
-       u_int16_t                       m_tag_len;      /* Length of data */
-       u_int32_t                       m_tag_id;       /* Module ID */
+       u_int16_t               m_tag_type;     /* Module specific type */
+       u_int16_t               m_tag_len;      /* Length of data */
+       u_int32_t               m_tag_id;       /* Module ID */
+};
+
+#ifdef __LP64__
+#define        M_TAG_ALIGN(len) \
+       P2ROUNDUP(len, sizeof (u_int64_t)) + sizeof (struct m_tag)
+#else
+#define        M_TAG_ALIGN(len) \
+       P2ROUNDUP(len, sizeof (u_int32_t)) + sizeof (struct m_tag)
+#endif /* !__LP64__ */
+
+#define        M_TAG_VALID_PATTERN     0xfeedfacefeedfaceULL
+#define        M_TAG_FREE_PATTERN      0xdeadbeefdeadbeefULL
+
+struct m_taghdr {
+       u_int64_t               refcnt;         /* Number of tags in this mbuf */
 };
 
 /* record/packet header in first mbuf of chain; valid if M_PKTHDR set */
@@ -139,34 +173,46 @@ struct    pkthdr {
 
        /* variables for ip and tcp reassembly */
        void    *header;                /* pointer to packet header */
-        /* variables for hardware checksum */
-#ifdef KERNEL_PRIVATE
-       /* Note: csum_flags is used for hardware checksum and VLAN */
-#endif KERNEL_PRIVATE
-        int     csum_flags;             /* flags regarding checksum */       
-        int     csum_data;              /* data field used by csum routines */
-       struct mbuf *aux;               /* extra data buffer; ipsec/others */
-#ifdef KERNEL_PRIVATE
+       /* variables for hardware checksum */
+       /* Note: csum_flags is used for hardware checksum and VLAN */
+       int     csum_flags;             /* flags regarding checksum */
+       int     csum_data;              /* data field used by csum routines */
+       u_int   tso_segsz;              /* TSO segment size (actual MSS) */
        u_short vlan_tag;               /* VLAN tag, host byte order */
        u_short socket_id;              /* socket id */
-#else KERNEL_PRIVATE
-       u_int   reserved1;              /* for future use */
-#endif KERNEL_PRIVATE
-        SLIST_HEAD(packet_tags, m_tag) tags; /* list of packet tags */
+       SLIST_HEAD(packet_tags, m_tag) tags; /* list of packet tags */
+#if PF_PKTHDR
+       /*
+        * Be careful; {en,dis}abling PF_PKTHDR will require xnu recompile;
+        * private code outside of xnu must use mbuf_get_mhlen() instead
+        * of MHLEN.
+        */
+       struct pf_mtag pf_mtag;
+#endif /* PF_PKTHDR */
+       u_int32_t prio;                 /* packet priority */
+       u_short vt_nrecs;               /* # of IGMPv3 records in this chain */
+       u_short _pad;
 };
 
 
 /* description of external storage mapped into mbuf, valid if M_EXT set */
 struct m_ext {
        caddr_t ext_buf;                /* start of buffer */
-       void    (*ext_free)(caddr_t , u_int, caddr_t);  /* free routine if not the usual */
+       void    (*ext_free)(caddr_t, u_int, caddr_t);   /* free routine if not the usual */
        u_int   ext_size;               /* size of buffer, for ext_free */
        caddr_t ext_arg;                /* additional ext_free argument */
        struct  ext_refsq {             /* references held */
                struct ext_refsq *forward, *backward;
        } ext_refs;
+       struct ext_ref {
+               u_int32_t refcnt;
+               u_int32_t flags;
+       } *ext_refflags;
 };
 
+/* define m_ext to a type since it gets redefined below */
+typedef struct m_ext _m_ext_t;
+
 struct mbuf {
        struct  m_hdr m_hdr;
        union {
@@ -174,10 +220,10 @@ struct mbuf {
                        struct  pkthdr MH_pkthdr;       /* M_PKTHDR set */
                        union {
                                struct  m_ext MH_ext;   /* M_EXT set */
-                               char    MH_databuf[MHLEN];
+                               char    MH_databuf[_MHLEN];
                        } MH_dat;
                } MH;
-               char    M_databuf[MLEN];                /* !M_PKTHDR, !M_EXT */
+               char    M_databuf[_MLEN];               /* !M_PKTHDR, !M_EXT */
        } M_dat;
 };
 
@@ -193,54 +239,71 @@ struct mbuf {
 #define        m_pktdat        M_dat.MH.MH_dat.MH_databuf
 #define        m_dat           M_dat.M_databuf
 
-/* mbuf flags */
+/* mbuf flags (private) */
 #define        M_EXT           0x0001  /* has associated external storage */
 #define        M_PKTHDR        0x0002  /* start of record */
 #define        M_EOR           0x0004  /* end of record */
 #define        M_PROTO1        0x0008  /* protocol-specific */
 #define        M_PROTO2        0x0010  /* protocol-specific */
 #define        M_PROTO3        0x0020  /* protocol-specific */
-#define        M_PROTO4        0x0040  /* protocol-specific */
+#define        M_LOOP          0x0040  /* packet is looped back */
 #define        M_PROTO5        0x0080  /* protocol-specific */
 
-/* mbuf pkthdr flags, also in m_flags */
+/* mbuf pkthdr flags, also in m_flags (private) */
 #define        M_BCAST         0x0100  /* send/received as link-level broadcast */
 #define        M_MCAST         0x0200  /* send/received as link-level multicast */
 #define        M_FRAG          0x0400  /* packet is a fragment of a larger packet */
 #define        M_FIRSTFRAG     0x0800  /* packet is first fragment */
 #define        M_LASTFRAG      0x1000  /* packet is last fragment */
 #define        M_PROMISC       0x2000  /* packet is promiscuous (shouldn't go to stack) */
+#define        M_HASFCS        0x4000  /* packet has FCS */
+#define        M_TAGHDR        0x8000  /* m_tag hdr structure at top of mbuf data */
+
+/*
+ * Flags to purge when crossing layers.
+ */
+#define        M_PROTOFLAGS \
+       (M_PROTO1|M_PROTO2|M_PROTO3|M_PROTO5)
 
 /* flags copied when copying m_pkthdr */
-#define M_COPYFLAGS     (M_PKTHDR|M_EOR|M_PROTO1|M_PROTO2|M_PROTO3 | \
-                            M_PROTO4|M_PROTO5|M_BCAST|M_MCAST|M_FRAG | \
-                            M_FIRSTFRAG|M_LASTFRAG|M_PROMISC)
-
-/* flags indicating hw checksum support and sw checksum requirements [freebsd4.1]*/
-#define CSUM_IP                 0x0001          /* will csum IP */
-#define CSUM_TCP                0x0002          /* will csum TCP */
-#define CSUM_UDP                0x0004          /* will csum UDP */
-#define CSUM_IP_FRAGS           0x0008          /* will csum IP fragments */
-#define CSUM_FRAGMENT           0x0010          /* will do IP fragmentation */
-        
-#define CSUM_IP_CHECKED         0x0100          /* did csum IP */
-#define CSUM_IP_VALID           0x0200          /*   ... the csum is valid */
-#define CSUM_DATA_VALID         0x0400          /* csum_data field is valid */
-#define CSUM_PSEUDO_HDR         0x0800          /* csum_data has pseudo hdr */
-#define CSUM_TCP_SUM16          0x1000          /* simple TCP Sum16 computation */
-#define CSUM_DELAY_DATA         (CSUM_TCP | CSUM_UDP)
-#define CSUM_DELAY_IP           (CSUM_IP)       /* XXX add ipv6 here too? */
+#define        M_COPYFLAGS                                                     \
+       (M_PKTHDR|M_EOR|M_PROTO1|M_PROTO2|M_PROTO3 |                    \
+       M_LOOP|M_PROTO5|M_BCAST|M_MCAST|M_FRAG |                        \
+       M_FIRSTFRAG|M_LASTFRAG|M_PROMISC|M_HASFCS)
+
+/* flags indicating hw checksum support and sw checksum requirements [freebsd4.1] */
+#define        CSUM_IP                 0x0001          /* will csum IP */
+#define        CSUM_TCP                0x0002          /* will csum TCP */
+#define        CSUM_UDP                0x0004          /* will csum UDP */
+#define        CSUM_IP_FRAGS           0x0008          /* will csum IP fragments */
+#define        CSUM_FRAGMENT           0x0010          /* will do IP fragmentation */
+#define        CSUM_TCPIPV6            0x0020          /* will csum TCP for IPv6 */
+#define        CSUM_UDPIPV6            0x0040          /* will csum UDP for IPv6 */
+#define        CSUM_FRAGMENT_IPV6      0x0080          /* will do IPv6 fragmentation */
+
+#define        CSUM_IP_CHECKED         0x0100          /* did csum IP */
+#define        CSUM_IP_VALID           0x0200          /*   ... the csum is valid */
+#define        CSUM_DATA_VALID         0x0400          /* csum_data field is valid */
+#define        CSUM_PSEUDO_HDR         0x0800          /* csum_data has pseudo hdr */
+#define        CSUM_TCP_SUM16          0x1000          /* simple TCP Sum16 computation */
+
+#define        CSUM_DELAY_DATA         (CSUM_TCP | CSUM_UDP)
+#define        CSUM_DELAY_IP           (CSUM_IP)       /* IPv4 only: no IPv6 IP cksum */
+#define        CSUM_DELAY_IPV6_DATA    (CSUM_TCPIPV6 | CSUM_UDPIPV6)
+#define        CSUM_DATA_IPV6_VALID    CSUM_DATA_VALID /* csum_data field is valid */
 /*
  * Note: see also IF_HWASSIST_CSUM defined in <net/if_var.h>
  */
 /* bottom 16 bits reserved for hardware checksum */
-#define CSUM_CHECKSUM_MASK     0xffff
+#define        CSUM_CHECKSUM_MASK      0xffff
 
 /* VLAN tag present */
-#define CSUM_VLAN_TAG_VALID    0x10000         /* vlan_tag field is valid */
-#endif KERNEL_PRIVATE
+#define        CSUM_VLAN_TAG_VALID     0x10000         /* vlan_tag field is valid */
 
+/* TCP Segment Offloading requested on this mbuf */
+#define        CSUM_TSO_IPV4           0x100000        /* This mbuf needs to be segmented by the NIC */
+#define        CSUM_TSO_IPV6           0x200000        /* This mbuf needs to be segmented by the NIC */
+#endif /* XNU_KERNEL_PRIVATE */
 
 /* mbuf types */
 #define        MT_FREE         0       /* should be on free list */
@@ -256,37 +319,12 @@ struct mbuf {
 #define        MT_FTABLE       11      /* fragment reassembly header */
 #define        MT_RIGHTS       12      /* access rights */
 #define        MT_IFADDR       13      /* interface address */
-#define MT_CONTROL     14      /* extra-data protocol message */
-#define MT_OOBDATA     15      /* expedited data  */
-#define MT_TAG          16      /* volatile metadata associated to pkts */
-#define MT_MAX         32      /* enough? */
-
-#ifdef KERNEL_PRIVATE
-
-/* flags to m_get/MGET */
-/* Need to include malloc.h to get right options for malloc  */
-#include       <sys/malloc.h>
-
-#define        M_DONTWAIT      M_NOWAIT
-#define        M_WAIT          M_WAITOK
-
-/*
- * mbuf utility macros:
- *
- *     MBUFLOCK(code)
- * prevents a section of code from from being interrupted by network
- * drivers.
- */
-
-#ifdef _KERN_LOCKS_H_
-extern lck_mtx_t * mbuf_mlock;
-#else
-extern void * mbuf_mlock;
-#endif
-
-#define MBUF_LOCK()    lck_mtx_lock(mbuf_mlock);
-#define MBUF_UNLOCK()  lck_mtx_unlock(mbuf_mlock);
+#define        MT_CONTROL      14      /* extra-data protocol message */
+#define        MT_OOBDATA      15      /* expedited data  */
+#define        MT_TAG          16      /* volatile metadata associated to pkts */
+#define        MT_MAX          32      /* enough? */
 
+#ifdef XNU_KERNEL_PRIVATE
 /*
  * mbuf allocation/deallocation macros:
  *
@@ -299,13 +337,11 @@ extern void * mbuf_mlock;
  */
 
 #if 1
-#define MCHECK(m) m_mcheck(m)
+#define        MCHECK(m) m_mcheck(m)
 #else
-#define MCHECK(m)
+#define        MCHECK(m)
 #endif
 
-extern struct mbuf *mfree;                             /* mbuf free list */
-
 #define        MGET(m, how, type) ((m) = m_get((how), (type)))
 
 #define        MGETHDR(m, how, type)   ((m) = m_gethdr((how), (type)))
@@ -329,21 +365,27 @@ union mcluster {
 
 #define        MCLALLOC(p, how)        ((p) = m_mclalloc(how))
 
-#define        MCLFREE(p)      m_mclfree(p)
+#define        MCLFREE(p)              m_mclfree(p)
 
-#define        MCLGET(m, how)  ((m) = m_mclget(m, how))
+#define        MCLGET(m, how)          ((m) = m_mclget(m, how))
 
 /*
  * Mbuf big cluster
  */
-
 union mbigcluster {
        union mbigcluster       *mbc_next;
-       char                    mbc_buf[NBPG];
+       char                    mbc_buf[MBIGCLBYTES];
 };
 
+/*
+ * Mbuf jumbo cluster
+ */
+union m16kcluster {
+       union m16kcluster       *m16kcl_next;
+       char                    m16kcl_buf[M16KCLBYTES];
+};
 
-#define MCLHASREFERENCE(m) m_mclhasreference(m)
+#define        MCLHASREFERENCE(m)      m_mclhasreference(m)
 
 /*
  * MFREE(struct mbuf *m, struct mbuf *n)
@@ -364,14 +406,19 @@ union mbigcluster {
  * Set the m_data pointer of a newly-allocated mbuf (m_get/MGET) to place
  * an object of the specified size at the end of the mbuf, longword aligned.
  */
-#define        M_ALIGN(m, len)                         \
-       { (m)->m_data += (MLEN - (len)) &~ (sizeof(long) - 1); }
+#define        M_ALIGN(m, len)                                                 \
+do {                                                                   \
+       (m)->m_data += (MLEN - (len)) &~ (sizeof (long) - 1);           \
+} while (0)
+
 /*
  * As above, for mbufs allocated with m_gethdr/MGETHDR
  * or initialized by M_COPY_PKTHDR.
  */
-#define        MH_ALIGN(m, len) \
-       { (m)->m_data += (MHLEN - (len)) &~ (sizeof(long) - 1); }
+#define        MH_ALIGN(m, len)                                                \
+do {                                                                   \
+       (m)->m_data += (MHLEN - (len)) &~ (sizeof (long) - 1);          \
+} while (0)
 
 /*
  * Compute the amount of space available
@@ -393,215 +440,438 @@ union mbigcluster {
  * If how is M_DONTWAIT and allocation fails, the original mbuf chain
  * is freed and m is set to NULL.
  */
-#define        M_PREPEND(m, plen, how)         ((m) = m_prepend_2((m), (plen), (how)))
+#define        M_PREPEND(m, plen, how) ((m) = m_prepend_2((m), (plen), (how)))
 
 /* change mbuf to new type */
-#define MCHTYPE(m, t)          m_mchtype(m, t)
-
-/* length to m_copy to copy all */
-#define        M_COPYALL       1000000000
+#define        MCHTYPE(m, t)           m_mchtype(m, t)
 
 /* compatiblity with 4.3 */
-#define  m_copy(m, o, l)       m_copym((m), (o), (l), M_DONTWAIT)
+#define        m_copy(m, o, l)         m_copym((m), (o), (l), M_DONTWAIT)
 
-#endif /* KERNEL_PRIVATE */
+#define        MBSHIFT         20                              /* 1MB */
+#define        MBSIZE          (1 << MBSHIFT)
+#define        GBSHIFT         30                              /* 1GB */
+#define        GBSIZE          (1 << GBSHIFT)
 
 /*
- * Mbuf statistics.
+ * M_STRUCT_GET ensures that intermediate protocol header (from "off" to
+ * "len") is located in single mbuf, on contiguous memory region.
+ * The pointer to the region will be returned to pointer variable "val",
+ * with type "typ".
+ *
+ * M_STRUCT_GET0 does the same, except that it aligns the structure at
+ * very top of mbuf.  GET0 is likely to make memory copy than GET.
+ */
+#define        M_STRUCT_GET(val, typ, m, off, len)                             \
+do {                                                                   \
+       struct mbuf *t;                                                 \
+       int tmp;                                                        \
+                                                                       \
+       if ((m)->m_len >= (off) + (len)) {                              \
+               (val) = (typ)(mtod((m), caddr_t) + (off));              \
+       } else {                                                        \
+               t = m_pulldown((m), (off), (len), &tmp);                \
+               if (t != NULL) {                                        \
+                       if (t->m_len < tmp + (len))                     \
+                               panic("m_pulldown malfunction");        \
+                       (val) = (typ)(mtod(t, caddr_t) + tmp);          \
+               } else {                                                \
+                       (val) = (typ)NULL;                              \
+                       (m) = NULL;                                     \
+               }                                                       \
+       }                                                               \
+} while (0)
+
+#define        M_STRUCT_GET0(val, typ, m, off, len)                            \
+do {                                                                   \
+       struct mbuf *t;                                                 \
+                                                                       \
+       if ((off) == 0) {                                               \
+               (val) = (typ)mtod(m, caddr_t);                          \
+       } else {                                                        \
+               t = m_pulldown((m), (off), (len), NULL);                \
+               if (t != NULL) {                                        \
+                       if (t->m_len < (len))                           \
+                               panic("m_pulldown malfunction");        \
+                       (val) = (typ)mtod(t, caddr_t);                  \
+               } else {                                                \
+                       (val) = (typ)NULL;                              \
+                       (m) = NULL;                                     \
+               }                                                       \
+       }                                                               \
+} while (0)
+
+#define        MBUF_INPUT_CHECK(m, rcvif)                                      \
+do {                                                                   \
+       if (!(m->m_flags & MBUF_PKTHDR) ||                              \
+           m->m_len < 0 ||                                             \
+           m->m_len > ((njcl > 0) ? njclbytes : MBIGCLBYTES) ||        \
+           m->m_type == MT_FREE ||                                     \
+           ((m->m_flags & M_EXT) != 0 && m->m_ext.ext_buf == NULL)) {  \
+               panic("Failed mbuf validity check: mbuf %p len %d "     \
+                   "type %d flags 0x%x data %p rcvif %s%d ifflags 0x%x",  \
+                   m, m->m_len, m->m_type, m->m_flags,                    \
+                   ((m->m_flags & M_EXT) ? m->m_ext.ext_buf : m->m_data), \
+                   rcvif->if_name, rcvif->if_unit,                     \
+                   (rcvif->if_flags & 0xffff));                        \
+       }                                                               \
+} while (0)
+
+#endif /* XNU_KERNEL_PRIVATE */
+
+/*
+ * Mbuf statistics (legacy).
  */
-/* LP64todo - not 64-bit safe */
 struct mbstat {
-       u_long  m_mbufs;        /* mbufs obtained from page pool */
-       u_long  m_clusters;     /* clusters obtained from page pool */
-       u_long  m_spare;        /* spare field */
-       u_long  m_clfree;       /* free clusters */
-       u_long  m_drops;        /* times failed to find space */
-       u_long  m_wait;         /* times waited for space */
-       u_long  m_drain;        /* times drained protocols for space */
-       u_short m_mtypes[256];  /* type specific mbuf allocations */
-       u_long  m_mcfail;       /* times m_copym failed */
-       u_long  m_mpfail;       /* times m_pullup failed */
-       u_long  m_msize;        /* length of an mbuf */
-       u_long  m_mclbytes;     /* length of an mbuf cluster */
-       u_long  m_minclsize;    /* min length of data to allocate a cluster */
-       u_long  m_mlen;         /* length of data in an mbuf */
-       u_long  m_mhlen;        /* length of data in a header mbuf */
-       u_long  m_bigclusters;     /* clusters obtained from page pool */
-       u_long  m_bigclfree;       /* free clusters */
-       u_long  m_bigmclbytes;     /* length of an mbuf cluster */
+       u_int32_t       m_mbufs;        /* mbufs obtained from page pool */
+       u_int32_t       m_clusters;     /* clusters obtained from page pool */
+       u_int32_t       m_spare;        /* spare field */
+       u_int32_t       m_clfree;       /* free clusters */
+       u_int32_t       m_drops;        /* times failed to find space */
+       u_int32_t       m_wait;         /* times waited for space */
+       u_int32_t       m_drain;        /* times drained protocols for space */
+       u_short         m_mtypes[256];  /* type specific mbuf allocations */
+       u_int32_t       m_mcfail;       /* times m_copym failed */
+       u_int32_t       m_mpfail;       /* times m_pullup failed */
+       u_int32_t       m_msize;        /* length of an mbuf */
+       u_int32_t       m_mclbytes;     /* length of an mbuf cluster */
+       u_int32_t       m_minclsize;    /* min length of data to allocate a cluster */
+       u_int32_t       m_mlen;         /* length of data in an mbuf */
+       u_int32_t       m_mhlen;        /* length of data in a header mbuf */
+       u_int32_t       m_bigclusters;  /* clusters obtained from page pool */
+       u_int32_t       m_bigclfree;    /* free clusters */
+       u_int32_t       m_bigmclbytes;  /* length of an mbuf cluster */
 };
 
 /* Compatibillity with 10.3 */
 struct ombstat {
-       u_long  m_mbufs;        /* mbufs obtained from page pool */
-       u_long  m_clusters;     /* clusters obtained from page pool */
-       u_long  m_spare;        /* spare field */
-       u_long  m_clfree;       /* free clusters */
-       u_long  m_drops;        /* times failed to find space */
-       u_long  m_wait;         /* times waited for space */
-       u_long  m_drain;        /* times drained protocols for space */
-       u_short m_mtypes[256];  /* type specific mbuf allocations */
-       u_long  m_mcfail;       /* times m_copym failed */
-       u_long  m_mpfail;       /* times m_pullup failed */
-       u_long  m_msize;        /* length of an mbuf */
-       u_long  m_mclbytes;     /* length of an mbuf cluster */
-       u_long  m_minclsize;    /* min length of data to allocate a cluster */
-       u_long  m_mlen;         /* length of data in an mbuf */
-       u_long  m_mhlen;        /* length of data in a header mbuf */
+       u_int32_t       m_mbufs;        /* mbufs obtained from page pool */
+       u_int32_t       m_clusters;     /* clusters obtained from page pool */
+       u_int32_t       m_spare;        /* spare field */
+       u_int32_t       m_clfree;       /* free clusters */
+       u_int32_t       m_drops;        /* times failed to find space */
+       u_int32_t       m_wait;         /* times waited for space */
+       u_int32_t       m_drain;        /* times drained protocols for space */
+       u_short         m_mtypes[256];  /* type specific mbuf allocations */
+       u_int32_t       m_mcfail;       /* times m_copym failed */
+       u_int32_t       m_mpfail;       /* times m_pullup failed */
+       u_int32_t       m_msize;        /* length of an mbuf */
+       u_int32_t       m_mclbytes;     /* length of an mbuf cluster */
+       u_int32_t       m_minclsize;    /* min length of data to allocate a cluster */
+       u_int32_t       m_mlen;         /* length of data in an mbuf */
+       u_int32_t       m_mhlen;        /* length of data in a header mbuf */
 };
-#ifdef KERNEL_PRIVATE
 
 /*
- * pkthdr.aux type tags.
+ * mbuf class statistics.
  */
-struct mauxtag {
-       int af;
-       int type;
+#define        MAX_MBUF_CNAME  15
+
+#if defined(XNU_KERNEL_PRIVATE)
+/* For backwards compatibility with 32-bit userland process */
+struct omb_class_stat {
+       char            mbcl_cname[MAX_MBUF_CNAME + 1]; /* class name */
+       u_int32_t       mbcl_size;      /* buffer size */
+       u_int32_t       mbcl_total;     /* # of buffers created */
+       u_int32_t       mbcl_active;    /* # of active buffers */
+       u_int32_t       mbcl_infree;    /* # of available buffers */
+       u_int32_t       mbcl_slab_cnt;  /* # of available slabs */
+       u_int64_t       mbcl_alloc_cnt; /* # of times alloc is called */
+       u_int64_t       mbcl_free_cnt;  /* # of times free is called */
+       u_int64_t       mbcl_notified;  /* # of notified wakeups */
+       u_int64_t       mbcl_purge_cnt; /* # of purges so far */
+       u_int64_t       mbcl_fail_cnt;  /* # of allocation failures */
+       u_int32_t       mbcl_ctotal;    /* total only for this class */
+       /*
+        * Cache layer statistics
+        */
+       u_int32_t       mbcl_mc_state;  /* cache state (see below) */
+       u_int32_t       mbcl_mc_cached; /* # of cached buffers */
+       u_int32_t       mbcl_mc_waiter_cnt;  /* # waiters on the cache */
+       u_int32_t       mbcl_mc_wretry_cnt;  /* # of wait retries */
+       u_int32_t       mbcl_mc_nwretry_cnt; /* # of no-wait retry attempts */
+       u_int64_t       mbcl_reserved[4];    /* for future use */
+} __attribute__((__packed__));
+#endif /* XNU_KERNEL_PRIVATE */
+
+typedef struct mb_class_stat {
+       char            mbcl_cname[MAX_MBUF_CNAME + 1]; /* class name */
+       u_int32_t       mbcl_size;      /* buffer size */
+       u_int32_t       mbcl_total;     /* # of buffers created */
+       u_int32_t       mbcl_active;    /* # of active buffers */
+       u_int32_t       mbcl_infree;    /* # of available buffers */
+       u_int32_t       mbcl_slab_cnt;  /* # of available slabs */
+#if defined(KERNEL) || defined(__LP64__)
+       u_int32_t       mbcl_pad;       /* padding */
+#endif /* KERNEL || __LP64__ */
+       u_int64_t       mbcl_alloc_cnt; /* # of times alloc is called */
+       u_int64_t       mbcl_free_cnt;  /* # of times free is called */
+       u_int64_t       mbcl_notified;  /* # of notified wakeups */
+       u_int64_t       mbcl_purge_cnt; /* # of purges so far */
+       u_int64_t       mbcl_fail_cnt;  /* # of allocation failures */
+       u_int32_t       mbcl_ctotal;    /* total only for this class */
+       /*
+        * Cache layer statistics
+        */
+       u_int32_t       mbcl_mc_state;  /* cache state (see below) */
+       u_int32_t       mbcl_mc_cached; /* # of cached buffers */
+       u_int32_t       mbcl_mc_waiter_cnt;  /* # waiters on the cache */
+       u_int32_t       mbcl_mc_wretry_cnt;  /* # of wait retries */
+       u_int32_t       mbcl_mc_nwretry_cnt; /* # of no-wait retry attempts */
+       u_int64_t       mbcl_reserved[4];    /* for future use */
+} mb_class_stat_t;
+
+#define        MCS_DISABLED    0       /* cache is permanently disabled */
+#define        MCS_ONLINE      1       /* cache is online */
+#define        MCS_PURGING     2       /* cache is being purged */
+#define        MCS_OFFLINE     3       /* cache is offline (resizing) */
+
+#if defined(XNU_KERNEL_PRIVATE)
+/* For backwards compatibility with 32-bit userland process */
+struct omb_stat {
+       u_int32_t               mbs_cnt;        /* number of classes */
+       struct omb_class_stat   mbs_class[1];   /* class array */
+} __attribute__((__packed__));
+#endif /* XNU_KERNEL_PRIVATE */
+
+typedef struct mb_stat {
+       u_int32_t       mbs_cnt;        /* number of classes */
+#if defined(KERNEL) || defined(__LP64__)
+       u_int32_t       mbs_pad;        /* padding */
+#endif /* KERNEL || __LP64__ */
+       mb_class_stat_t mbs_class[1];   /* class array */
+} mb_stat_t;
+
+#ifdef PRIVATE
+#define        MLEAK_STACK_DEPTH       16      /* Max PC stack depth */
+
+typedef struct mleak_trace_stat {
+       u_int64_t       mltr_collisions;
+       u_int64_t       mltr_hitcount;
+       u_int64_t       mltr_allocs;
+       u_int64_t       mltr_depth;
+       u_int64_t       mltr_addr[MLEAK_STACK_DEPTH];
+} mleak_trace_stat_t;
+
+typedef struct mleak_stat {
+       u_int32_t               ml_isaddr64;    /* 64-bit KVA? */
+       u_int32_t               ml_cnt;         /* number of traces */
+       mleak_trace_stat_t      ml_trace[1];    /* trace array */
+} mleak_stat_t;
+
+struct mleak_table {
+       u_int32_t mleak_capture;        /* sampling capture counter */
+       u_int32_t mleak_sample_factor;  /* sample factor */
+
+       /* Times two active records want to occupy the same spot */
+       u_int64_t alloc_collisions;
+       u_int64_t trace_collisions;
+
+       /* Times new record lands on spot previously occupied by freed alloc */
+       u_int64_t alloc_overwrites;
+       u_int64_t trace_overwrites;
+
+       /* Times a new alloc or trace is put into the hash table */
+       u_int64_t alloc_recorded;
+       u_int64_t trace_recorded;
+
+       /* Total number of outstanding allocs */
+       u_int64_t outstanding_allocs;
+
+       /* Times mleak_log returned false because couldn't acquire the lock */
+       u_int64_t total_conflicts;
 };
+#endif /* PRIVATE */
 
-#ifdef KERNEL
-extern union   mcluster *mbutl;        /* virtual address of mclusters */
-extern union   mcluster *embutl;       /* ending virtual address of mclusters */
-extern short   *mclrefcnt;             /* cluster reference counts */
-extern int     *mcl_paddr;             /* physical addresses of clusters */
-extern struct  mbstat mbstat;          /* statistics */
-extern int     nmbclusters;            /* number of mapped clusters */
-extern union   mcluster *mclfree;      /* free mapped cluster list */
-extern int     max_linkhdr;            /* largest link-level header */
-extern int     max_protohdr;           /* largest protocol header */
-extern int     max_hdr;                /* largest link+protocol header */
-extern int     max_datalen;            /* MHLEN - max_hdr */
-
+#ifdef KERNEL_PRIVATE
 __BEGIN_DECLS
-struct mbuf *m_copym(struct mbuf *, int, int, int);
-struct mbuf *m_split(struct mbuf *, int, int);
-struct mbuf *m_free(struct mbuf *);
-struct mbuf *m_get(int, int);
-struct mbuf *m_getpacket(void);
-struct mbuf *m_getclr(int, int);
-struct mbuf *m_gethdr(int, int);
-struct mbuf *m_prepend(struct mbuf *, int, int);
-struct  mbuf *m_prepend_2(struct mbuf *, int, int);
-struct mbuf *m_pullup(struct mbuf *, int);
-struct mbuf *m_retry(int, int);
-struct mbuf *m_retryhdr(int, int);
-void m_adj(struct mbuf *, int);
-void m_freem(struct mbuf *);
-int m_freem_list(struct mbuf *);
-struct mbuf *m_devget(char *, int, int, struct ifnet *, void (*)(const void *, void *, size_t));
-char   *mcl_to_paddr(char *);
-struct mbuf *m_pulldown(struct mbuf*, int, int, int*);
-struct mbuf *m_aux_add(struct mbuf *, int, int);
-struct mbuf *m_aux_find(struct mbuf *, int, int);
-void m_aux_delete(struct mbuf *, struct mbuf *);
-
-struct mbuf *m_mclget(struct mbuf *, int);
-caddr_t m_mclalloc(int);
-void m_mclfree(caddr_t p);
-int m_mclhasreference(struct mbuf *);
-void m_copy_pkthdr(struct mbuf *, struct mbuf*);
-
-int m_mclref(struct mbuf *);
-int m_mclunref(struct mbuf *);
-
-void *          m_mtod(struct mbuf *);
-struct mbuf *   m_dtom(void *);
-int             m_mtocl(void *);
-union mcluster *m_cltom(int );
-
-int m_trailingspace(struct mbuf *);
-int m_leadingspace(struct mbuf *);
-
-void m_mchtype(struct mbuf *m, int t);
-void m_mcheck(struct mbuf*);
-
-void m_copyback(struct mbuf *, int , int , caddr_t);
-void m_copydata(struct mbuf *, int , int , caddr_t);
-struct mbuf* m_dup(struct mbuf *m, int how);
-void m_cat(struct mbuf *, struct mbuf *);
-struct  mbuf *m_copym_with_hdrs(struct mbuf*, int, int, int, struct mbuf**, int*);
-struct mbuf *m_getpackets(int, int, int);
-struct mbuf * m_getpackethdrs(int , int );
-struct mbuf* m_getpacket_how(int );
-struct mbuf * m_getpackets_internal(unsigned int *, int , int , int , size_t);
-struct mbuf * m_allocpacket_internal(unsigned int * , size_t , unsigned int *, int , int , size_t );
+
+/*
+ * Exported (private)
+ */
+
+extern struct mbstat mbstat;                   /* statistics */
 
 __END_DECLS
+#endif /* KERNEL_PRIVATE */
+
+#ifdef XNU_KERNEL_PRIVATE
+__BEGIN_DECLS
 
 /*
- Packets may have annotations attached by affixing a list of "packet
- tags" to the pkthdr structure.  Packet tags are dynamically allocated
- semi-opaque data structures that have a fixed header (struct m_tag)
- that specifies the size of the memory block and an <id,type> pair that
- identifies it. The id identifies the module and the type identifies the
- type of data for that module. The id of zero is reserved for the kernel.
- Note that the packet tag returned by m_tag_allocate has the default
- memory alignment implemented by malloc.  To reference private data one
- can use a construct like:
-      struct m_tag *mtag = m_tag_allocate(...);
-      struct foo *p = (struct foo *)(mtag+1);
- if the alignment of struct m_tag is sufficient for referencing members
- of struct foo.  Otherwise it is necessary to embed struct m_tag within
- the private data structure to insure proper alignment; e.g.
-      struct foo {
-              struct m_tag    tag;
-              ...
-      };
-      struct foo *p = (struct foo *) m_tag_allocate(...);
-      struct m_tag *mtag = &p->tag;
+ * Not exported (xnu private)
  */
 
-#define KERNEL_MODULE_TAG_ID   0
+/* flags to m_get/MGET */
+/* Need to include malloc.h to get right options for malloc  */
+#include       <sys/malloc.h>
 
-enum {
-       KERNEL_TAG_TYPE_NONE                    = 0,
-       KERNEL_TAG_TYPE_DUMMYNET                = 1,
-       KERNEL_TAG_TYPE_DIVERT                  = 2,
-       KERNEL_TAG_TYPE_IPFORWARD               = 3,
-       KERNEL_TAG_TYPE_IPFILT                  = 4
-};
+struct mbuf;
+
+/* length to m_copy to copy all */
+#define        M_COPYALL       1000000000
+
+#define        M_DONTWAIT      M_NOWAIT
+#define        M_WAIT          M_WAITOK
 
 /*
- * As a temporary and low impact solution to replace the even uglier
- * approach used so far in some parts of the network stack (which relies
- * on global variables), packet tag-like annotations are stored in MT_TAG
- * mbufs (or lookalikes) prepended to the actual mbuf chain.
+ * These macros are mapped to the appropriate KPIs, so that private code
+ * can be simply recompiled in order to be forward-compatible with future
+ * changes toward the struture sizes.
+ */
+#define        MLEN            mbuf_get_mlen()         /* normal data len */
+#define        MHLEN           mbuf_get_mhlen()        /* data len w/pkthdr */
+
+#define        MINCLSIZE       mbuf_get_minclsize()    /* cluster usage threshold */
+
+extern void m_freem(struct mbuf *);
+extern char *mcl_to_paddr(char *);
+extern void m_adj(struct mbuf *, int);
+extern void m_cat(struct mbuf *, struct mbuf *);
+extern void m_copydata(struct mbuf *, int, int, void *);
+extern struct mbuf *m_copym(struct mbuf *, int, int, int);
+extern struct mbuf *m_get(int, int);
+extern struct mbuf *m_gethdr(int, int);
+extern struct mbuf *m_getpacket(void);
+extern struct mbuf *m_getpackets(int, int, int);
+extern struct mbuf *m_mclget(struct mbuf *, int);
+extern void *m_mtod(struct mbuf *);
+extern struct mbuf *m_prepend_2(struct mbuf *, int, int);
+extern struct mbuf *m_pullup(struct mbuf *, int);
+extern struct mbuf *m_split(struct mbuf *, int, int);
+extern void m_mclfree(caddr_t p);
+
+__private_extern__ union mbigcluster *mbutl;   /* start VA of mbuf pool */
+__private_extern__ union mbigcluster *embutl;  /* end VA of mbuf pool */
+__private_extern__ unsigned int nmbclusters;   /* number of mapped clusters */
+__private_extern__ int njcl;           /* # of jumbo clusters  */
+__private_extern__ int njclbytes;      /* size of a jumbo cluster */
+__private_extern__ int max_linkhdr;    /* largest link-level header */
+__private_extern__ int max_protohdr;   /* largest protocol header */
+__private_extern__ int max_hdr;                /* largest link+protocol header */
+__private_extern__ int max_datalen;    /* MHLEN - max_hdr */
+
+__private_extern__ unsigned int mbuf_default_ncl(int, u_int64_t);
+__private_extern__ void mbinit(void);
+__private_extern__ struct mbuf *m_clattach(struct mbuf *, int, caddr_t,
+    void (*)(caddr_t, u_int, caddr_t), u_int, caddr_t, int);
+__private_extern__ caddr_t m_bigalloc(int);
+__private_extern__ void m_bigfree(caddr_t, u_int, caddr_t);
+__private_extern__ struct mbuf *m_mbigget(struct mbuf *, int);
+__private_extern__ caddr_t m_16kalloc(int);
+__private_extern__ void m_16kfree(caddr_t, u_int, caddr_t);
+__private_extern__ struct mbuf *m_m16kget(struct mbuf *, int);
+
+__private_extern__ struct mbuf *m_free(struct mbuf *);
+__private_extern__ struct mbuf *m_getclr(int, int);
+__private_extern__ struct mbuf *m_getptr(struct mbuf *, int, int *);
+__private_extern__ unsigned int m_length(struct mbuf *);
+__private_extern__ struct mbuf *m_prepend(struct mbuf *, int, int);
+__private_extern__ struct mbuf *m_copyup(struct mbuf *, int, int);
+__private_extern__ struct mbuf *m_retry(int, int);
+__private_extern__ struct mbuf *m_retryhdr(int, int);
+__private_extern__ int m_freem_list(struct mbuf *);
+__private_extern__ int m_append(struct mbuf *, int, caddr_t);
+__private_extern__ struct mbuf *m_last(struct mbuf *);
+__private_extern__ struct mbuf *m_devget(char *, int, int, struct ifnet *,
+    void (*)(const void *, void *, size_t));
+__private_extern__ struct mbuf *m_pulldown(struct mbuf *, int, int, int *);
+
+__private_extern__ struct mbuf *m_getcl(int, int, int);
+__private_extern__ caddr_t m_mclalloc(int);
+__private_extern__ int m_mclhasreference(struct mbuf *);
+__private_extern__ void m_copy_pkthdr(struct mbuf *, struct mbuf *);
+
+__private_extern__ struct mbuf *m_dtom(void *);
+__private_extern__ int m_mtocl(void *);
+__private_extern__ union mcluster *m_cltom(int);
+
+__private_extern__ int m_trailingspace(struct mbuf *);
+__private_extern__ int m_leadingspace(struct mbuf *);
+
+__private_extern__ struct mbuf *m_normalize(struct mbuf *m);
+__private_extern__ void m_mchtype(struct mbuf *m, int t);
+__private_extern__ void m_mcheck(struct mbuf *);
+
+__private_extern__ void m_copyback(struct mbuf *, int, int, const void *);
+__private_extern__ struct mbuf *m_copyback_cow(struct mbuf *, int, int,
+    const void *, int);
+__private_extern__ int m_makewritable(struct mbuf **, int, int, int);
+__private_extern__ struct mbuf *m_dup(struct mbuf *m, int how);
+__private_extern__ struct mbuf *m_copym_with_hdrs(struct mbuf *, int, int, int,
+    struct mbuf **, int *);
+__private_extern__ struct mbuf *m_getpackethdrs(int, int);
+__private_extern__ struct mbuf *m_getpacket_how(int);
+__private_extern__ struct mbuf *m_getpackets_internal(unsigned int *, int,
+    int, int, size_t);
+__private_extern__ struct mbuf *m_allocpacket_internal(unsigned int *, size_t,
+    unsigned int *, int, int, size_t);
+
+/*
+ * Packets may have annotations attached by affixing a list of "packet
+ * tags" to the pkthdr structure.  Packet tags are dynamically allocated
+ * semi-opaque data structures that have a fixed header (struct m_tag)
+ * that specifies the size of the memory block and an <id,type> pair that
+ * identifies it. The id identifies the module and the type identifies the
+ * type of data for that module. The id of zero is reserved for the kernel.
+ *
+ * Note that the packet tag returned by m_tag_allocate has the default
+ * memory alignment implemented by malloc.  To reference private data one
+ * can use a construct like:
  *
- *      m_type  = MT_TAG
- *      m_flags = m_tag_id
- *      m_next  = next buffer in chain.
+ *      struct m_tag *mtag = m_tag_allocate(...);
+ *      struct foo *p = (struct foo *)(mtag+1);
  *
- * BE VERY CAREFUL not to pass these blocks to the mbuf handling routines.
+ * if the alignment of struct m_tag is sufficient for referencing members
+ * of struct foo.  Otherwise it is necessary to embed struct m_tag within
+ * the private data structure to insure proper alignment; e.g.
+ *
+ *      struct foo {
+ *              struct m_tag    tag;
+ *              ...
+ *      };
+ *      struct foo *p = (struct foo *) m_tag_allocate(...);
+ *      struct m_tag *mtag = &p->tag;
  */
-#define _m_tag_id       m_hdr.mh_flags
 
-__BEGIN_DECLS
+#define        KERNEL_MODULE_TAG_ID    0
+
+enum {
+       KERNEL_TAG_TYPE_NONE                    = 0,
+       KERNEL_TAG_TYPE_DUMMYNET                = 1,
+       KERNEL_TAG_TYPE_DIVERT                  = 2,
+       KERNEL_TAG_TYPE_IPFORWARD               = 3,
+       KERNEL_TAG_TYPE_IPFILT                  = 4,
+       KERNEL_TAG_TYPE_MACLABEL                = 5,
+       KERNEL_TAG_TYPE_MAC_POLICY_LABEL        = 6,
+       KERNEL_TAG_TYPE_ENCAP                   = 8,
+       KERNEL_TAG_TYPE_INET6                   = 9,
+       KERNEL_TAG_TYPE_IPSEC                   = 10,
+       KERNEL_TAG_TYPE_PF                      = 11
+};
 
 /* Packet tag routines */
-struct  m_tag   *m_tag_alloc(u_int32_t id, u_int16_t type, int len, int wait);
-void             m_tag_free(struct m_tag *);
-void             m_tag_prepend(struct mbuf *, struct m_tag *);
-void             m_tag_unlink(struct mbuf *, struct m_tag *);
-void             m_tag_delete(struct mbuf *, struct m_tag *);
-void             m_tag_delete_chain(struct mbuf *, struct m_tag *);
-struct  m_tag   *m_tag_locate(struct mbuf *,u_int32_t id, u_int16_t type,
-                                                         struct m_tag *);
-struct  m_tag   *m_tag_copy(struct m_tag *, int wait);
-int              m_tag_copy_chain(struct mbuf *to, struct mbuf *from, int wait);
-void             m_tag_init(struct mbuf *);
-struct  m_tag   *m_tag_first(struct mbuf *);
-struct  m_tag   *m_tag_next(struct mbuf *, struct m_tag *);
+__private_extern__ struct  m_tag *m_tag_alloc(u_int32_t, u_int16_t, int, int);
+__private_extern__ struct  m_tag *m_tag_create(u_int32_t, u_int16_t, int, int,
+       struct mbuf *);
+__private_extern__ void m_tag_free(struct m_tag *);
+__private_extern__ void m_tag_prepend(struct mbuf *, struct m_tag *);
+__private_extern__ void m_tag_unlink(struct mbuf *, struct m_tag *);
+__private_extern__ void m_tag_delete(struct mbuf *, struct m_tag *);
+__private_extern__ void m_tag_delete_chain(struct mbuf *, struct m_tag *);
+__private_extern__ struct m_tag *m_tag_locate(struct mbuf *, u_int32_t,
+    u_int16_t, struct m_tag *);
+__private_extern__ struct m_tag *m_tag_copy(struct m_tag *, int);
+__private_extern__ int m_tag_copy_chain(struct mbuf *, struct mbuf *, int);
+__private_extern__ void m_tag_init(struct mbuf *);
+__private_extern__ struct  m_tag *m_tag_first(struct mbuf *);
+__private_extern__ struct  m_tag *m_tag_next(struct mbuf *, struct m_tag *);
+
+__private_extern__ void m_prio_init(struct mbuf *);
 
 __END_DECLS
-
-#endif /* KERNEL */
-
-#endif /* KERNEL_PRIVATE */
+#endif /* XNU_KERNEL_PRIVATE */
 #ifdef KERNEL
 #include <sys/kpi_mbuf.h>
-#endif
+#endif /* KERNEL */
 #endif /* !_SYS_MBUF_H_ */